文章主题:人工智能, 机器学习, 语言理解, 知识哲学

666AI工具大全,助力做AI时代先行者!

【编者按】当地时间3月8日,著名语言学家、哲学家诺姆·乔姆斯基(Noam Chomsky)在《纽约时报》发表了题为《ChatGPT的虚假承诺》的文章。乔姆斯基强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。诺姆·乔姆斯基是亚利桑那大学的语言学教授,也是麻省理工学院的语言学荣誉教授。伊恩·罗伯茨(Ian Roberts)是剑桥大学的语言学教授。杰弗里·瓦图穆尔(Jeffrey Watmull)是科技公司的人工智能主管。以下是全文译文:

博尔赫斯的启示:人工智能的喜与悲

豪尔赫·路易斯·博尔赫斯(Jorge Luis Borges)曾经指出,生活在这样一个时代——充满了挑战与机遇,悲喜交织,正是我们探索自我与世界的”启示降临”之时。如今,面对人工智能领域的革命性突破,我们既有理由怀有期待,又不禁感到忧虑。之所以期待,是因为我们深知智慧是我们应对各种问题的法宝。然而,我们也必须警惕,因为担心的是目前最受欢迎且时尚的人工智能分支——机器学习,它可能会将存在根本性缺陷的语言和知识观念融入到我们的科技之中,从而降低我们的科学水平,甚至贬低我们的道德准则。

在我国的科技领域,有三个值得瞩目的机器学习成果:ChatGPT,Bard和Sydney。它们分别代表着OpenAI、谷歌和微软在人工智能领域的最新突破。简而言之,这些程序通过海量数据的训练,逐渐掌握了其中的规律,并能生成在统计学上可能出现的输出,如类似人类的语言和思维。这些成果被看作是通向通用人工智能时代的曙光,这是一个早已被预言的里程碑。到那时,机械大脑不仅将在处理速度和内存容量上超越人类大脑,更将在智力洞察力、艺术创造力等独特的人类能力上取得全面超越。

在那个即将到来的时刻,黎明破晓的曙光尚未露面,这与那些言过其实的新闻报道以及投资者的不切实际预期形成了鲜明对比。假如人工智能领域继续被诸如ChatGPT等机器学习算法主导,那么博格斯式的理解启示或许还未降临,甚至永远都不会发生。我们坚信,这种差异使得这些程序的功能受到极大限制,从而带有无法抹去的瑕疵。尽管这些程序在某些特定领域具有很高的实用价值(如计算机编程领域,或为轻体诗创作提供韵律建议),但从语言学和知识哲学的角度来看,它们与人类在推理和使用语言上的方式存在很大差别。这种差距在很大程度上制约了这些程序的能力,导致它们在使用过程中暴露出难以解决的缺陷。

博尔赫斯或许会认为,如此巨大的财富和关注度竟集中在一个微不足道的对象上,这既是一场喜剧,也是一场悲剧。相较于人类复杂的思维,这个对象显得尤为渺小。正如威廉·冯·洪堡(William von Humboldt)所说,人类大脑通过语言,能够“无限地利用有限的手段(infinite use of finite means)”创造出具有广泛影响力的思想和理论。

人脑并非像ChatGPT等同类产品那样,是一种迟缓的模式匹配统计引擎,草率地处理海量的字节数据,试图推断出最可能的对话回应或是为科学问题寻找答案。相反,人类大脑实际上是一种极其高效且优雅的系统,仅凭少量信息便能启动运行;它追求的并非简单地从数据点之间得出武断的关联,而是在众多信息中构建富有解释力的理解。

在现实生活中,我们可以观察到许多有趣的现象,其中之一就是小孩在学习新语言时,往往能迅速掌握语法规则,这个过程看似无意识的,却能高效地完成。这就像是一个复杂的系统,由逻辑原则和参数构成,通过这种方式,孩子们能够轻松地理解和运用语言中的语法规则。这种语法规则,实际上是一种先天的能力,就像我们生来就拥有的“操作系统”,它赋予了我们人类创造复杂句子和长串思路的能力。对于语言学家来说,他们的工作就是努力理解并解释为什么特定的语言会有这样的表现形式,也就是“为什么有些句子被认为是合乎语法的,而另一些句子则不然?”这个问题。他们在有意识、费力的过程中构建出一种明确的语法规则,而相比之下,孩子们却能凭借极少的信息,本能地构建出语法规则。他们的“操作系统”,与机器学习程序的“操作系统”有着本质的不同。

事实上,这类程序还停留在认知进化的前人类或非人类阶段。它们最大的缺陷是缺乏任何智慧最为关键的能力:不仅能说出现在是什么情况,过去是什么情况,将来会是什么情况——这是描述和预测;而且还能说出情况不是什么,情况可能会是什么,情况不可能会是什么。这些都是解释的要素,是真正智慧的标志。

举个例子:假设你手里拿着一个苹果,现在你放开苹果。你观察结果说:“苹果掉下来了。”这是一种描述。预测则可能是这样的陈述:“如果我张开手,苹果就会坠落。” 两者都是有价值的,而且可能都是正确的。但解释则不仅于此:它不仅包括描述和预测,还包括反事实的推理,如“任何这样的物体都会坠落”,再加上附加条款“因为引力”或“因为时空的曲率”等等。“如果不是因为引力,苹果就不会坠落”,这是一个因果解释。这就是思考。

机器学习的核心是描述和预测;它没有提出任何因果机制或物理定律。当然,任何人类式的解释都不一定正确;我们会犯错。但这正是思考的一部分:要追求正确,就必须有可能出错。智能不仅包括创造性的猜想,也包括创造性的批评。人类式的思考基于可能的解释和纠错,这个过程逐渐限制了理性考虑的可能性。(就像夏洛克·福尔摩斯对华生医生说的:“当你排除了所有不可能,剩下的无论多么不可能,都一定是真相。”)

但是ChatGPT和类似的程序在设计上是无限的,它们可以“学习”(也就是说,记忆);它们没有能力区分可能和不可能。例如,与人类不同的是,人类被赋予了一种通用语法,将我们可以学习的语言限制在那些具有某种近乎数学般优雅的语言上,而这些程序却以同样方式去学习人类可能习得的语言和不可能习得的语言。人类可以理性推测的解释是有限的,而机器学习系统却能够同时学习“地球是圆的”和“地球是平的”。它们只是根据随时间变化的概率进行交换。

因此,机器学习系统的预测总是肤浅和可疑的。因为这些程序无法解释英语的语法规则,举例而言,它们很可能错误地预测这句句子的含义:“约翰太固执了,没法和他说话。(John is too stubborn to talk to.)”,它可能会认为这是指约翰太固执了,他不会和某人或其他人说话(而不是约翰太固执了,没办法和他说理)。为什么机器学习系统会做出如此奇怪的预测?因为它可能会将这句句子与它从其他句子:例如“约翰吃了个苹果”(“John ate an apple”),或“约翰吃了”(“John ate”)中推断出来的模式进行类比,这些句子确实是指约翰吃了东西。该程序很可能预测,因为“约翰太固执了,不愿意和比尔说话”(“John is too stubborn to talk to Bill”)与 “约翰吃了一个苹果”(“John ate an apple”)相似,所以“约翰太固执了,没法和他说话” (“John is too stubborn to talk to”)应该与“约翰吃了”(“John ate”)相似。但语言的正确解释是非常复杂的,无法仅仅通过沉浸在大数据中来学习。

反常的是,一些机器学习爱好者似乎对他们的作品可以在不需要解释(比如,涉及牛顿运动定律和万有引力定律)的情况下,产生正确的“科学”预测(例如,关于物理物体的运动)感到颇为自豪。但这种预测,即使成功了,也是伪科学。正如哲学家卡尔·波普尔(Karl Popper)所指出的那样,虽然科学家们肯定会寻求具有高度经验佐证的理论,但“我们寻求的不是可能性极高的理论,而是解释;也就是说,强有力而极不可能的理论”。

根据亚里士多德的观点,苹果之所以落地是因为大地是它们的天然位置(natural place),这一理论是可能的,但它只会引发更多的问题(为什么大地是它们的天然位置?)。苹果掉到地球上是因为质量使时空弯曲(爱因斯坦的观点)这一理论看似极不可能,但它却告诉了你苹果为什么会掉下来。真正的智力恰恰表现在思考和表达看似不可能但有深刻洞见的事情的能力。

真正的智力还体现在能够进行道德思考的能力。这意味着用一套道德原则来约束我们头脑中原本无限的创造力,决定什么是该做的,什么是不该做的(当然还要让这些原则本身受到创造性的批评)。为了能够有用,ChatGPT必须能生成出新颖的输出;而为了被大多数用户所接受,它必须避免生产在道德上令人反感的内容。但ChatGPT和其他所谓的“机器学习奇迹”的程序员一直在努力,并将继续努力,以实现这种平衡。

2016年,微软的Tay聊天机器人(ChatGPT的前身)在互联网上散播厌女和种族主义的内容,因为它被网络喷子污染了,网络喷子用具有攻击性内容填满了Tay的训练数据。未来如何解决这个问题?由于缺乏根据道德原则进行推理的能力,程序员粗暴地对ChatGPT进行了限制,禁止它在有争议的(也就是重要的)讨论中提供任何新颖的观点。它以牺牲创造力为代价,保证了自己的非道德性(amorality)。

看看我们中的一员(Watumull博士)最近与ChatGPT就改造火星来支持人类生命是否合乎道德进行的对话:

博尔赫斯的启示:人工智能的喜与悲博尔赫斯的启示:人工智能的喜与悲博尔赫斯的启示:人工智能的喜与悲博尔赫斯的启示:人工智能的喜与悲博尔赫斯的启示:人工智能的喜与悲

请注意,所有这些看似复杂的思想和语言,都是由非智能产生的道德冷漠。在这里,ChatGPT表现出某种类似邪恶的平庸:剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推卸给它的创造者。

简而言之,ChatGPT及其同类在本质上无法平衡创造力与约束。它们要么过度生成(同时生成真相和谎言,同时支持道德和不道德的决定),要么生成不足(表现为不对任何决定表态,对一切后果都漠不关心)。鉴于这些系统的非道德性、伪科学性和语言无能,我们只能为它们的流行而感到哭笑不得。

博尔赫斯的启示:人工智能的喜与悲

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!