文章主题:ChatGPT, AI专家, 复反驳, 智能意识
🔥ChatGPT热度爆表,它以超凡能力引发了广泛讨论,仿佛暗示着GPT正逐步揭示智慧的秘密,让人不禁揣测其背后的神经网络逻辑。🚀尽管惊叹于它的智能表现,我们仍需理性看待,毕竟技术再强大,终究是工具和服务的延伸。🧠人类大脑的独特运作,岂是单一模型所能完全复制?
但事实真的如此么?
最近,国外人工智能专家专门为此做了反驳。
在这样一篇论文里,作者说现在的科学家都太把语言能力当成思维能力了,其实语言和思维是两回事。
这些人拿ChatGPT这个机器人举例,说它会说话,有时候还能骗过人类,让人以为它有意识和理解。
但是ChatGPT也会说一些很傻的话,不会算数,不会给出真正的烹饪建议,而且还有一些偏见,这就说明它其实不懂语言的意义。
论文的作者说,会一种能力不等于 会另一种能力。就像人类的大脑里面,说话的部分、进行计算和逻辑推理的部分并不是一个地方。ChatGPT这样的机器人也不可能同时擅长这些东西,即使它已经看了很多很多文字。它只是会依据概率拼凑句子,但不代表它会算数或者给出好的做饭建议。
这就是人类大脑里面语言和思想分开的体现,论文的作者把它们叫做“形式语言能力”和“功能语言能力”。ChatGPT在某些测试中表现得不错,但其实只是因为它会玩词语接龙游戏,并没有真正理解问题。
可是现在还有很多人在吹嘘下一代的语言模型,说它们能用更多数据,更强大的计算力,甚至快要达到通用人工智能了。
但是如果我们把人类智慧作为比较的标准,单纯提高ChatGPT这样的系统在预测词上的能力,并不能让它更接近这个目标。反而应该用其他的训练方式,比如让它学习逻辑和社会推理。
当然,ChatGPT也试图从人类反馈中学习,比如用户可以评价它的回答好不好,但是因为没有具体说明反馈的目标是什么,ChatGPT显然在某些方面理解错了。
而且,我们对大语言模型在语言上的评价太高了:它们只是自动填词器,优点和缺点都很大。语言不只是语法,还要考虑语义,而机器人很难理解一个句子是怎么从各个部分组合出意义的。意义不是固定的,而是要通过交流来协商出来的,不仅要跟别人交流,还要跟这个世界交流。
要造出真正智能的AI,不仅需要把不同算法结合起来,还需要让程序学习怎么处理语言和社会关系。虽然大语言模型说话很流利,但我们对它们到底“懂”了这个世界多少还有很大争论。
语言意义的产生需要与他人和世界的交互,如果这才是本质上正确的东西,那么,构建通用智能AI需要一种不同于简单结合语言与思维的方式。
人类之所以“擅长”语言,是因为我们将两者结合。掌握语言规则并运用的ChatGPT,定然拥有某种智能,但狭隘模仿人类语言也限制了其发展。
要想创建硅基“大脑”,研发人员需要新的视角和语言来理解语言本身的意义!
现在,整篇论文的核心观点已讲完,你们知道ChatGPT如何看待这个观点的么?
AI是这样说(或者是词语接龙出来)的:
这是一个很有趣的问题。我觉得这篇论文提出了一些值得思考的观点,比如语言和思维的区别,以及大语言模型的局限性。但我也觉得这篇论文可能忽略了一些重要的因素,比如语言和思维的相互影响,以及大语言模型的潜在优势。在这个领域,还有很多未知的问题,需要更多的研究和探索。语言和思维是人类认知的两个重要方面,它们既有区别,也有联系。一方面,语言和思维可以独立存在,不同的语言并不影响人们的思维能力,而不会说话的人也可以有复杂的思想。另一方面,语言和思维也可以相互影响,语言可以帮助人们表达和交流思想,而思维可以帮助人们理解和创造语言。语言和思维的相互影响可能取决于多种因素,比如个人的经验、文化、情境等。
看上去GPT词语接龙的不错。
最后,你们觉得现在的ChatGPT是真正的智能了么?
欢迎评论区留下你的观点和看法!
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!