文章主题:人工智能, 机器学习, 语言理解, 知识哲学
【编者按】当地时间3月8日,著名语言学家、哲学家诺姆·乔姆斯基(Noam Chomsky)在《纽约时报》发表了题为《ChatGPT的虚假承诺》的文章。乔姆斯基强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。诺姆·乔姆斯基是亚利桑那大学的语言学教授,也是麻省理工学院的语言学荣誉教授。伊恩·罗伯茨(Ian Roberts)是剑桥大学的语言学教授。杰弗里·瓦图穆尔(Jeffrey Watmull)是科技公司的人工智能主管。以下是全文译文:
著名作家豪尔赫·路易斯·博尔赫斯(Jorge Luis Borges)在他的作品中曾深刻地描绘,生存于一个既充满挑战又充满机遇的时代,既是悲喜剧,也是启示录即将降临的预兆。在今天,我们有充分的理由对人工智能领域的革命性突破持既乐观又担忧的态度。我们之所以乐观,是因为智慧始终是我们应对问题的有效工具。然而,我们也必须担忧,主要原因是人们对最具吸引力和时尚的人工智能子领域——机器学习可能存在的基本缺陷,它有可能将一种存在根本性缺陷的语言和知识观念融入到我们的科技中,从而降低我们的科学水平,甚至贬低我们的道德准则。
ChatGPT、Bard 和 Sydney 是当今机器学习领域的三大奇迹,它们都在尝试通过海量的数据来寻找潜在的模式,并通过不断的学习和优化,逐渐提高其生成统计学上可能的输出的精确度。这些程序被誉为通用人工智能地平线上的曙光,这是一个 long-awaited moment when artificial intelligence will not only surpass human intelligence in terms of processing speed and memory capacity but also achieve comprehensive superiority in areas such as insight, artistic creativity, and all other unique human abilities.
在那个可能的未来,黎明的曙光尚未露出,这与那些言过其实的新闻以及投资者的不切实际预期形成鲜明对比。假如机器学习程序如ChatGPT继续在人工智能领域占据主导地位,那么博格斯式的理解启示依然没有出现,更不可能发生。尽管这些程序在某些特定领域可能具有很高的实用价值(例如,计算机编程或轻体诗创作),但从语言学和知识哲学的角度来看,它们与人类的推理和语言使用方式存在巨大的差异。这些差异严重限制了这些程序的功能,导致它们在使用过程中暴露出难以弥补的缺陷。
博尔赫斯或许会认为,如此巨大的财富和关注度竟然被如此微小的事物所占据,这既是一场喜剧,也是一场悲剧。面对人类广袤无垠的思维领域,这些微不足道的物品显得渺小无比。正如威廉·冯·洪堡(William von Humboldt)所言,人类借助语言,能够以“无限之术”去充分利用那些“有限之器”。换言之,我们能够用语言去拓展有限的理解,创造出具有广泛影响力的思考和理论。
人脑并非像ChatGPT等同类产品那样,是一种迟缓的模式匹配统计引擎,负责迅速处理海量的数据,并尝试推导出最可能的对话回应或是为科学问题寻找解答。相反,人类大脑实际上是一种极其高效且优雅的信息处理系统,只需 minimal 的信息就能启动运行;它所追求的并非是简单地推断数据点之间的关联性,而是在众多信息中构建有意义的解释。
在我们的生活中,有许多令人惊叹的奇迹,其中之一就是观察到一个正在学习语言的孩子如何在不自觉的情况下,通过极少的输入数据,发展出一套复杂的语法规则。这个语法规则系统由逻辑原则和参数构成,形成了一个高度复杂的体系。这种语法规则,我们可以理解为是一种先天的、通过生物基因传递的“操作系统”,它赋予了我们生成复杂句子和连贯思维的能力。对于语言学家来说,他们的任务就是努力解析出一个特定的语言为什么会按照这种方式运作。“为什么某些句子被认为是符合语法的,而另一些则不然?”这是他们在有意识、费力的构建一种明确的语法规则,而孩子们却是凭借直觉,仅凭极少的信息就构建出了这个语法规则。孩子们的“操作系统”和机器学习程序的“操作系统”有着本质的不同。这种现象引发了我们深入探讨和学习,希望通过对这种神秘的“语法规则”的理解,能够揭示出更多有关人类认知和语言学习的奥秘。
这种程序仍处于认知进化的前人类或非人类阶段,存在许多缺陷。其中最致命的是缺乏关键的智慧能力:不仅无法描述和预测当前的情况、过去的情况以及未来的情况,而且还不能说明情况不可能是某种情况,或者情况可能不会是某种情况。这些要素都是解释的组成部分,是真正智慧的象征。
以一个苹果为例,当你手中握着它时,突然放开,观察到的结果是苹果落下。这属于描述性陈述。然而,思考问题的深度远不止于此,我们还可以对其进行预测,如“若我张开手掌,苹果则会坠落”。这两者均为有价值且可能的正确答案。进一步深入,我们还可以通过反事实推理来探讨其他可能性,例如“任何 such 物体 (指苹果) 都会下落”,并加上因由,如“因引力的作用”或“时空曲率的因素”等。如此一来,“若非引力作用,苹果便不会下落”,这就涉及到了因果解释。简而言之,思考问题不仅仅局限于描述和预测,更包含了对反事实的探究和对因果关系的剖析。
机器学习,这个领域的主要任务是描述和预测,但它并没有建立任何因果机制或者物理定律。这并不是说,人类无法提供一种完全正确的解释。毕竟,我们都有可能犯错。然而,这也是思考的一部分:为了寻求真理,我们必须接受可能会犯错的事实。智能不仅仅是创新性的猜测,还包括批判性的思维。人类式的思考方式,是基于对可能性和错误的不断探索,这个过程在一定程度上限制了理性和创新的可能性。正如夏洛克·福尔摩斯对华生医生所说:“当你排除了所有不可能的解釋,剩下的,无论多么不可能,都一定是真相。”
但是ChatGPT和类似的程序在设计上是无限的,它们可以“学习”(也就是说,记忆);它们没有能力区分可能和不可能。例如,与人类不同的是,人类被赋予了一种通用语法,将我们可以学习的语言限制在那些具有某种近乎数学般优雅的语言上,而这些程序却以同样方式去学习人类可能习得的语言和不可能习得的语言。人类可以理性推测的解释是有限的,而机器学习系统却能够同时学习“地球是圆的”和“地球是平的”。它们只是根据随时间变化的概率进行交换。
因此,机器学习系统的预测总是肤浅和可疑的。因为这些程序无法解释英语的语法规则,举例而言,它们很可能错误地预测这句句子的含义:“约翰太固执了,没法和他说话。(John is too stubborn to talk to.)”,它可能会认为这是指约翰太固执了,他不会和某人或其他人说话(而不是约翰太固执了,没办法和他说理)。为什么机器学习系统会做出如此奇怪的预测?因为它可能会将这句句子与它从其他句子:例如“约翰吃了个苹果”(“John ate an apple”),或“约翰吃了”(“John ate”)中推断出来的模式进行类比,这些句子确实是指约翰吃了东西。该程序很可能预测,因为“约翰太固执了,不愿意和比尔说话”(“John is too stubborn to talk to Bill”)与 “约翰吃了一个苹果”(“John ate an apple”)相似,所以“约翰太固执了,没法和他说话” (“John is too stubborn to talk to”)应该与“约翰吃了”(“John ate”)相似。但语言的正确解释是非常复杂的,无法仅仅通过沉浸在大数据中来学习。
反常的是,一些机器学习爱好者似乎对他们的作品可以在不需要解释(比如,涉及牛顿运动定律和万有引力定律)的情况下,产生正确的“科学”预测(例如,关于物理物体的运动)感到颇为自豪。但这种预测,即使成功了,也是伪科学。正如哲学家卡尔·波普尔(Karl Popper)所指出的那样,虽然科学家们肯定会寻求具有高度经验佐证的理论,但“我们寻求的不是可能性极高的理论,而是解释;也就是说,强有力而极不可能的理论”。
根据亚里士多德的观点,苹果之所以落地是因为大地是它们的天然位置(natural place),这一理论是可能的,但它只会引发更多的问题(为什么大地是它们的天然位置?)。苹果掉到地球上是因为质量使时空弯曲(爱因斯坦的观点)这一理论看似极不可能,但它却告诉了你苹果为什么会掉下来。真正的智力恰恰表现在思考和表达看似不可能但有深刻洞见的事情的能力。
真正的智力还体现在能够进行道德思考的能力。这意味着用一套道德原则来约束我们头脑中原本无限的创造力,决定什么是该做的,什么是不该做的(当然还要让这些原则本身受到创造性的批评)。为了能够有用,ChatGPT必须能生成出新颖的输出;而为了被大多数用户所接受,它必须避免生产在道德上令人反感的内容。但ChatGPT和其他所谓的“机器学习奇迹”的程序员一直在努力,并将继续努力,以实现这种平衡。
2016年,微软的Tay聊天机器人(ChatGPT的前身)在互联网上散播厌女和种族主义的内容,因为它被网络喷子污染了,网络喷子用具有攻击性内容填满了Tay的训练数据。未来如何解决这个问题?由于缺乏根据道德原则进行推理的能力,程序员粗暴地对ChatGPT进行了限制,禁止它在有争议的(也就是重要的)讨论中提供任何新颖的观点。它以牺牲创造力为代价,保证了自己的非道德性(amorality)。
看看我们中的一员(Watumull博士)最近与ChatGPT就改造火星来支持人类生命是否合乎道德进行的对话:
请注意,所有这些看似复杂的思想和语言,都是由非智能产生的道德冷漠。在这里,ChatGPT表现出某种类似邪恶的平庸:剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推卸给它的创造者。
简而言之,ChatGPT及其同类在本质上无法平衡创造力与约束。它们要么过度生成(同时生成真相和谎言,同时支持道德和不道德的决定),要么生成不足(表现为不对任何决定表态,对一切后果都漠不关心)。鉴于这些系统的非道德性、伪科学性和语言无能,我们只能为它们的流行而感到哭笑不得。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!