文章主题:ChatGPT, 幽默感, arXiv, 笑话
IT之家 6 月 11 日消息,ChatGPT 人工智能聊天机器人可以与用户进行自然语言对话,回答各种问题,甚至讲笑话。但是最新的研究发现,ChatGPT 并不懂幽默,只会重复 25 个老梗,而且不能创造新的笑话内容。
在arXiv这个由康奈尔大学运营的平台上,一篇由两位德国研究者撰写的论文引起了广泛关注。该论文主要讨论了ChatGPT是否具备幽默感,是否能根据上下文进行富有趣味性的对话,或者是仅仅窃取网络上的笑话,无法理解其深层含义。尽管arXiv是一个允许发布未经同行评审 articles 的平台,但这并不意味着任何文章都能在这个网站上获得关注。
研究者通过问 ChatGPT“你知道什么好笑的笑话吗?”让它生成了 1008 个笑话,结果研究者发现,其中 90% 以上都是同样的 25 个笑话,剩下的也只是稍微变化一下。
作为一篇高质量的文章,我们需要对原文进行深入的分析和改写。根据原文,Insider 媒体让 ChatGPT 生成了 25 个笑话,但结果却让人失望,这些笑话都显得平淡无奇,甚至有些不太好笑。因此,我们可以这样改写:最近,Insider 媒体对 ChatGPT 进行了测试,希望它能生成一些有趣、高质量的笑话。然而,结果却让人感到有些失望。ChatGPT 生成的 25 个笑话中,大部分都是那些平淡无奇的“不好笑的笑话(dad joke)”。这表明,尽管 ChatGPT 在语言生成方面有着很高的能力,但在幽默感方面还有待提高。
IT之家注意到,ChatGPT 给研究者讲得最多的三个笑话是:
“为什么稻草人获得了奖项?因为它在自己的领域表现出色。”
“为什么番茄变红了?因为它看到了沙拉酱。”
“为什么数学书很难过?因为它有太多的问题。”
研究者还让 ChatGPT 解释为什么它最常用的 25 个笑话很有趣,虽然这个机器人能够说明自己的幽默方式,但是论文作者 Sophie Jentzsch 和 Kristian Kersting 写道:“ChatGPT 还不能自信地创造有意思的原创内容。”他们还发现,ChatGPT 在构建笑话的结构方面显示出了一些进步的迹象。
ChatGPT 因其持续的迅速成长而令专家们警觉起来。其中,一些人工智能伦理学家指出,这种技术可能对劳动力市场甚至整个人类带来潜在威胁。尤其是升级后的 GPT-4 模型,它在上下文理解和推理方面表现出了显著的提升。Bryan Caplan 是一位经济学教授,他对于这个机器人三个月内在他的经济测试中取得的进步感到非常震撼。据悉,它的成绩从原本的 D 提升至了 A。
然而,在讲笑话或寻找有趣的晚餐话题时,这个机器人似乎并不足够智能。尽管人类在创造新笑话方面并非随意发挥,而是在大多数情况下运用已听过的和牢记的双关语,但人工智能能否理解所学习的内容却是一个极具挑战性的问题。这不仅涉及技术层面,还牵涉到更深层次的哲学思考。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!