对由 OpenAI 训练的大语言模型 ChatGPT 的热情是错误的。尽管从技术角度来看这可能令人印象深刻,但依靠机器进行对话并生成响应的想法引起了严重的担忧。

首先,ChatGPT 缺乏真正理解人类语言和对话的复杂性的能力。它被简单地训练为根据给定的输入生成单词,但它没有能力真正理解这些单词背后的含义。这意味着它产生的任何反应都可能是肤浅的,缺乏深度和洞察力。

此外,依赖 ChatGPT 进行对话会引发道德问题。如果人们开始依赖机器为他们进行对话,可能会导致失去真正的人际关系。通过对话与他人联系的能力是人类的一个基本方面,将其外包给机器可能会对我们的社会产生不利的副作用。

互联网,以及它赖以生存的整个技术领域,感觉就像是一个巨大的胡说八道的器官——用于扩大人类对言论的访问和放大谎言。在网上,人们互相欺骗、欺骗和小冲突。深度学习 AI 通过隐藏 LLM 等软件的操作使这一切变得更糟,以至于没有人,甚至是他们的创造者,都无法解释他们在做什么以及为什么这样做。OpenAI其工作展示为无上下文和实验性的,没有特定的用例——它说它发布 ChatGPT 只是为了“获得用户的反馈并了解其优势和劣势”。难怪关于 ChatGPT 的第一个也是最明显的假设是它是一种威胁——对某些东西,对一切。

但是 ChatGPT 并不是通向理解所有人类知识和文本的通用人工智能的道路上的一步;它只是一种玩弄所有这些知识和所有这些文本的工具。游戏只涉及使用原材料,看看它们能做什么。您玩游戏或玩乐器,以意想不到的方式利用熟悉的材料。法学硕士肯定不会取代大学或杂志或中层管理人员。但它们确实为这些领域和其他领域提供了一种新工具——这个词真的很恰当——可以用来演奏海量的文本材料。

我与 ChatGPT 讨论了广泛的话题,包括诗歌、行为心理学和计算机编程,以检验这一理论。目前,ChatGPT 只是一个技术演示,一个研究实验。除了对其技术可能颠覆哪些领域的可怕预测之外,它的用途还不太清楚。在几乎所有情况下,人工智能似乎都拥有知识和表达知识的手段。但是当被按下时——聊天界面可以很容易地做到这一点——机器人几乎总是不得不承认它只是在编造东西。

有时它只是使用模板。当我要求 ChatGPT 为一份大学工作生成一封求职信时,它以一种称职但平淡的方式履行了义务。它还为杂志编辑的工作和 Web3 空间的大麻创新者的工作提供了完全相同的信(“我对 Web3 空间及其带来的独特挑战和机遇有深刻的理解”)。很公平:毕竟,大多数求职信都在重复同样陈腐的台词和抽象的手势,都很糟糕。