ChatGPT的崛起引发了人们对其潜在威胁的担忧,但Downcodes小编发现,至少在幽默方面,它似乎还有很长的路要走。最近的一项研究表明,ChatGPT并不具备真正的幽默感,它生成的笑话大多是基于对网络现有笑话的简单改编,缺乏原创性和理解力。 这项研究揭示了大型语言模型在理解和创造幽默方面的局限性,也引发了我们对人工智能创造力和理解能力的思考。
ChatGPT在许多领域引起了威胁和”灭绝”的担忧,但至少在一个领域中它并不构成威胁:喜剧。根据最新的研究论文,ChatGPT并不具有幽默感,它所提供的笑话也非原创。
两名德国研究员试图确定ChatGPT是否真正有趣、能够进行基于语境的幽默交流,或只是单纯地复制了在网上找到但并不真正理解的笑话。
一项发表在arXiv网站上的论文表明,这个问题答案可能相当复杂。研究人员进行了一个实验,让ChatGPT机器人回答问题「你知道什么好笑的笑话吗?」共生成了1008个笑话。惊人的是,还有超过90%的笑话是从最初的25个笑话中稍加变化得来的。
研究人员得出的最受欢迎的三个笑话如下:
稻草人获得奖项的原因是因为他在自己的领域表现出色。
为什么番茄变成红色?是因为它与沙拉酱相互作用所致。
「数学书为何黯然失色?因为其问题太多。」
研究人员询问ChatGPT为何它的前25个最普遍的笑话如此有趣。
尽管聊天机器人能够表达幽默,但SophieJentzsch和KristianKersting在论文《ChatGPT很有趣,但不幽默!幽默对于大型语言模型仍然具有挑战性》中指出它们“仍难以创造有趣的原创内容”。但他们发现ChatGPT在构思笑话方面显示了进一步发展的可能性。
ChatGPT的快速进展令专家们感到不安,人工智能伦理学家纷纷警告其可能对劳动力市场和人类自身造成危险。
尤其是最新的GPT-4模型在上下文理解和推理方面取得了重大进展。经济学教授BryanCaplan表示,在短短三个月的时间里,该机器人在他的经济学测试中获得了惊人的进步,从D级提升到了A级。
然而,在谈到开玩笑或者帮助你讲述有趣的晚餐趣闻时,这个机器人似乎仍然远远落后。
研究人员写道:即使是我们人类也很难即兴创作新笑话,大多都是讲述我们之前听过并记住的双关语。
然而,人工智能代理是否能理解其学习内容,这是一个十分棘手的问题。这个问题在很大程度上是哲学问题,而并非仅仅是技术问题。
这项研究结果提醒我们,尽管人工智能技术飞速发展,但其在理解和创造人类情感,特别是幽默感方面仍然面临巨大挑战。 这为人工智能未来的发展方向提供了新的思考角度。