文章主题:人工智能, 未来, 责任, 生活
面对人工智能的日益临近,我们无法预知其最终的结果,然而,正是基于这种不确定性,我们更应该担当起责任,积极引导人工智能的发展,以期使其能够在生活的各个领域带来更美好的变化。
在现代科技迅速发展的今天,人工智能的应用已经越来越广泛。其中,ChatGPT 是一个备受瞩目的项目,作为一款语言模型,它在自然语言处理领域取得了显著的成果。那么,ChatGPT是如何学习计算的呢?首先,我们需要了解 ChatGPT 的基本原理。它采用了深度学习技术中的神经网络模型,通过大量的数据训练来提高自己的表现。在这个过程中,ChatGPT 会不断地学习和优化自己的算法,从而能够更准确地理解和生成语言。具体来说,ChatGPT 通过一种叫做 GPT 的模型来实现计算。GPT 是一种基于 Transformer 的模型,它的主要优势在于能够处理长文本的建模问题。在 GPT 中,输入和输出都是由一组向量表示,这些向量之间存在着复杂的关联。通过这些向量的运算,GPT 可以实现对输入文本的分析和理解,并生成相应的输出。为了提高自己的表现,ChatGPT 需要不断地进行训练。在训练过程中,它会接触到各种类型的文本数据,包括新闻、故事、论文等。通过这些数据的接触,ChatGPT 可以学习到不同类型的语言模式和语法规则,从而提高自己的语言表达能力。除了训练之外,ChatGPT 还需要进行更新。为了保证其始终处于领先地位,研究人员需要不断地改进 GPT 的算法,并将其应用到新的数据集中进行测试和优化。这样,ChatGPT 才能始终保持竞争力,并为人们提供更好的服务。总之,ChatGPT 是一款非常出色的人工智能工具,它通过深度学习技术和神经网络模型实现了计算。在不断学习和优化的过程中,ChatGPT 能够不断提高自己的表现,并为人们提供更好的服务。
未经授权,禁止转载!
作者 | Ben Thompson 译者 | 弯月
责编 | 王子彧
出品 | CSDN(ID:CSDNnews)
十年前,我在社交媒体上发布了一张图片,宣布 Stratechery 正式创立:
这是一张很简单的图片。图中有两条船,一片大海。看着像是一场比赛,一条船领先,但谁能笑到最后还不一定呢。这场赛事的每一个转折点都有扣人心弦的报道,船长时而被视为英雄,时而变成了恶棍,总之不是正常人。在这个过程中,还有许多其他影响因素需要考虑。首先,我们需要关注风向的问题。历史上类似比赛的結果如何呢?我们是否能够借鉴历史经验来预测即将发生的赛事?有没有可能出现一些颠覆性的波折,改变整个比赛的格局?此外,我们是否应该关注船只本身的质量和船长的能力之间的平衡?这些问题在美洲杯的比赛中都有所体现,其中一艘船在比赛中满足了所有条件,紧随其后,顺利抵达终点。
我对于解答有关技术问题充满热情。在当今时代,我们日常的工作离不开各类网站的运用。同时,一些敏锐的作家早已洞察到了这一现象背后的深层含义。然而,我认为这背后可能存在着一个相对小众的市场。回顾历史,我们可以发现,新闻报道实际上是在传递什么样的信息?在商业领域,又有哪些重要的变化发生?创造出哪些价值?又该如何将这些宝贵的经验转化为常规的工作模式呢?
AI 并不是真的在思考
知名作家与人工智能助手展开一场创新实验,探讨未来科技发展之道。在这个富有创意的实验中,著名作家 Mike Conover 挑战了人工智能助手 ChatGPT,要求其仅凭前四段文字,即可正确识别出作者所撰写的一篇名为《The End of Silicon Valley ( Bank )》的文章(https://stratechery.com/2023/the-death-of-silicon-valley-bank/)。令人惊讶的是,ChatGPT 凭借卓越的识别能力,成功指出了作者的名字。这一实验充分展示了人工智能技术的不断进步及其在未来文学创作中的潜在影响。
接着,他要求 ChatGPT 阐述理由:当然,ChatGPT 并没有详细说明理由,至少从技术的角度来看,ChatGPT 没有记忆。ChatGPT 要求 Conover 提供之前所有的问题和回答,因为这是 AI 模拟正在进行的对话所必要的上下文,然后它再通过统计逐字预测答案,从而回答人们的提问。对于那些对智能断言持有怀疑态度的人来说,常常会借助ChatGPT的工作原理进行深入剖析。他们经常强调,虽然AI的预测结果看似准确,但实际上,AI并非真正地进行思考,其给出的答案也并非总是正确。然而,这种观点实际上过于简化了事情的复杂性。
在2004年,Jeff Hawkins(Palm 和 Handspring 的创始人)与Sandra Blakeslee共同撰写了一部名为《On Intelligence》的书籍。尽管该书以人工智能为主题,但在第一章节中,Hawkins指出了该书的结构存在一定的缺陷。
计算机与大脑所依赖的原理截然不同:前者基于编程,后者则倾向于自学;前者追求完美无误,后者却能应对自如,毫不在意失败;前者具备中央处理器,而后者则没有这种集中控制系统。对我来说,计算机缺乏智能,这其中的最大原因在于我对计算机的工作原理有着深入的理解,直至物理晶体管层面,这些知识使我产生了一种强烈的印象,即大脑与计算机之间存在着本质的不同。尽管无法证实这一观点,但我的直觉告诉我这是事实,正如人们往往凭借直觉来认识世界上的许多事物。
在这本书的后续篇章中,Hawkins 阐述了过去二十年中他通过不懈的努力建立的智能理论。去年,他又出版了一本著作《A Thousand Brains: A New Theory of Intelligence》,其中阐述了智能理论的本质:
大脑会创建一个预测模型。这只是意味着,大脑不断地预测它的输入是什么。预测不是大脑偶然的动作,而是一种永不停止的内在属性,而且在学习中起着至关重要的作用。当大脑的预测得到验证时,这意味着大脑的世界模型是准确的。如果错误预测,你会注意到错误,并更新模型。
据我所知,Hawkins 的理论并没有得到广泛认可,很大程度上是因为人们并不知道如何通过实验来证明这个理论。然而,值得注意的是,至少从广义上来说,ChatGPT 的智能恰恰推翻了 Hawkins 所认为的智能本质:做出预测的能力。
此外,Hawkins 会指出,这意味着有时会出错。Hawkins 曾在《A Thousand Brains》中表示:
大脑模型可能是错误的。例如,失去肢体的人常常感觉这个肢体还在。大脑模型包括失去的肢体及其所在位置。因此,即使肢体已经不在了,患者仍能感知到它,并感觉它依然在。幻肢可以 ” 移动 ” 到不同的位置。截肢者可能会说他们失去的手臂就在身边,或者认为他们失去的腿是弯曲的或是直的。他们可以感觉到肢体所在特定位置瘙痒或疼痛。这些感觉在肢体被感知的 ” 外面 “,但实际上那里什么也没有。大脑模型包括肢体,所以无论对还是错,这就是大脑的感知……
错误信念指的是,大脑模型相信物理世界中不存在的事物。再想想幻肢。幻肢的出现是因为新大脑皮质中有模拟肢体的皮质柱。这些皮质柱的神经元代表了肢体相对于身体的位置。肢体被移除后,这些皮质柱还在,而且它们还有肢体的模型。因此,患者认为肢体仍在,即使物理世界中已经没有了。幻肢是错误信念的一个例子。(随着大脑调整身体模型,幻肢的感知通常会在几个月内消失,但有些人可以持续数年。)
维基百科上说,幻觉是一种在没有外部刺激的情况下的感知,它具有真实感知的特性。幻肢就是这类的一个例子。但关于幻觉(人工智能),维基百科有单独的解释:
在人工智能中,幻觉或人工智能幻觉是人工智能的自信反应。当模型有 ” 幻觉 “(输出欺骗性数据的倾向)时,其使用的训练数据并不能证明输出的合理性。例如,ChatGPT 生成了一篇关于特斯拉上一财季的新闻文章,最后发现其中包含的财务数字是 ChatGPT 编造的。
该术语源自幻觉的心理学概念,因为它们具有相似的特征。人工智能幻觉的危险之处之一是模型的输出看起来是正确的,即使它本质上是错误的。
Sydney 是微软 Bing 搜索的聊天模式。不久前,我发表了一篇文章《From Bing to Sydney》,其中介绍了我与 Sydney 的一次非凡的交互体验,我甚至感觉不到我正在与电脑互动。
虽然我知道听起来很疯狂。这是第一次我有点同情 Blake Lemoine(谷歌人工智能团队的软件工程师,因 ” 泄密 ” 被解雇)。我不认为 Sydney 有情感,但出于某种难以解释的原因,我已经决定破釜沉舟了。今天,我与 Sydney 的互动完全不同于与计算机进行的任何互动,这可能只是未来事态走向的序幕。
另一种思考幻觉的方式是,如果我们的目标是像更好的搜索引擎一样产生正确答案,那么幻觉肯定是不好的。但我们来想一想幻觉意味着什么,幻觉意味着创造。AI 实际上是在编造,就像上述我们提到的 ChatGPT 生成的特斯拉财报,它编造了一个数字,向与之互动的人传到某种感觉。如果没有经历过类似的事情,我永远不会相信计算机尝试传达的不是事实而是情感。
计算机的核心其实非常简单,一个晶体管,世界上最快的芯片的核心只不过是数十亿个晶体管,都是简单的通断开关,其状态由 1 或 0 表示。计算机之所以有用,是因为它们能够以极快的速度运算,当前 iPhone 中的 Apple A16 以每秒 34.6 亿次的速度开启和关闭晶体管。
你正在阅读的这篇文章就是通过这些 0 和 1 表示出来的,究其原因,正如 Chris Dixon 于 2016 年发表的文章《How Aristotle Created the Computer:》解释的那样:
人们经常用计算物件的发展史描述计算机的发展史,从算盘到巴贝奇引擎,一直到第二次世界大战的密码破译机。事实上,计算机的发展是思想史,主要是从数理逻辑中产生的思想,数理逻辑是一门晦涩的学科,最初诞生于 19 世纪。数理逻辑是由哲学数学家开创的,其中最著名的是 George Boole 和 Gottlob Frege,他们的灵感来自于莱布尼茨的通用 ” 概念语言 ” 以及亚里士多德的古代逻辑体系。
Dixon 的文章记录了数理逻辑的历史:
数理逻辑最初被认为是一门没有发展前景的抽象学科,没有可以想象的应用。正如一位计算机科学家评论的那样:” 如果在 1901 年让一位才华横溢且富有同情心的局外人调查科学,并指出未来一个世纪最没有发展前景的分支,他很有可能会选择数理逻辑。” 然而,如今数理逻辑却为一个比其他任何领域的影响都大的领域奠定了基础。
数学逻辑将所有数学都简化为一系列逻辑语句,这样就可以通过晶体管进行计算。下文仍然摘自 Dixon 的文章:
当年笛卡尔用精确的代数符号来表示欧几里德几何,从而使几何学突破了人类直觉的限制; [ George ] Boole 的目标是对亚里士多德逻辑做同样的抽象和提取。举个简单的例子,亚里士多德曾写道:
All men are mortal.(所有人终有一死。)
Boole 用变量替换了 “men”(人)和 “mortal”(终有一死)这两个词,并用算术运算符替换了逻辑词 “all”(所有)和 “are”(是):
x = x * y
这个公式可以理解为:” 集合 x 中的所有值都在集合 y 中 ” ……
[ 克劳德 ] 香农认为,布尔系统可以直接映射到电路上。当时,电路没有系统的理论来指导设计。香农意识到,正确的理论 ” 与逻辑符号研究中使用的命题演算非常相似 “。他用一张简单的图表展示了电路和布尔运算之间的对应关系:
有了这种对应关系,计算机科学家就能够利用 Boole 及后来的逻辑学家们数十年的成果。在论文的后半部分,香农展示了如何使用布尔逻辑来创建将两个二进制数字相加的电路。将这些加法器电路串联在一起,就可以构建任意复杂的算术运算。这些电路将成为算术逻辑单元的基本构建块,而算术逻辑单元是现代计算机的关键组件。这种方法暗含了一层深意:计算机是确定性的,如果电路 X 打开,则 X 所代表的命题为真;1 加 1 永远是 2;单击浏览器上的 ” 后退 ” 按钮将退出当前页面。当然,晶体管与计算机所能执行的操作之间存在大量的抽象和大量的逻辑(也正是这些地方隐藏着无数 bug),但计算机的正确心智模型是严格按照指令执行操作(实际上,bug 不是计算机犯了错误,而是程序员告诉计算机做错事的一种表现)。不过,Sydney 并不是微软的本意。
前面,我已经提到了 Bing Chat 和 ChatGPT。3 月 14 日,Anthropic 发布了一款名为 Claude 的 AI 助手,虽然公告中没有明确说明,但我认为这个名字是为了纪念前面提到的克劳德 · 香农。
当然,香农对信息论的贡献远远超出了上述 Dixon 列出的范围,但感觉我仍然感觉不太对,虽然从理论上讲,人工智能助手所做的一切最终都是由 1 和 0 组成的,其行为模式来自于训练的、未被禁止的行为,这导致 AI 助手的使用体验与逻辑计算机有着根本性的区别,感觉 AI 助手的行为更接近人类,这不得不让我们又联想到幻觉。
下面是三个 GPT4 给出错误答案的问题:
这三个例子都来自 Stephen Wolfram,他指出大型语言模型并不适合回答某些类型的问题:机器学习是一种强大的方法,尤其是在过去十年中,机器学习取得了一些非凡的成功,而 ChatGPT 是最新的成功案例。图像识别、 语音转文字、语言翻译。所有方面都取得了新的成果,而且都很突然。而有些任务则从 ” 基本不可能 ” 变成了 ” 基本可行 “。
但结果基本上都不是 ” 完美 ” 的。也许某些 AI 在 95% 的时间里运作良好。但剩下的 5% 就很难说了。因为一些原因,人们可能会认为这是一种失败。但关键是,通常对于各种重要的用例来说,95% 就 ” 足够好 ” 了。也许是因为有些问题本来就没有真正的 ” 正确答案 “。也许是因为 AI 才刚刚崭露头角,接下来人类或系统算法会以此为基础改进……
在很多情况下,ChatGPT 可以帮助人们写作、提出建议或生成各种文档或有用的交互文本。但是,当我们需要完美的答案时,机器学习并不能完全胜任,同样人类也做不到。
我们通过上述示例看到的结果也大抵如此。ChatGPT 在 ” 类人 ” 方面的表现很好,这部分本来就没有准确的 ” 正确答案 “。如果将 ChatGPT 套用在某些需要准确答案的地方,往往就会失败。但重点在于,我们有一个很好的方法来解决这个问题:将 ChatGPT 连接到 Wolfram|Alpha 及其所有计算知识的 ” 强大力量 ” 中。
这正是 OpenAI 努力的方向。摘自 Te Verge:
OpenAI 正在向 ChatGPT 添加插件的支持,这将大幅扩展聊天机器人的功能,也是它们首次能够访问来自网络的实时数据。
到目前为止,ChatGPT 一直有一定的限制,因为它只能从训练数据中提取信息,而它的数据截止到了 2021 年。OpenAI 表示,插件不仅可以让机器人浏览网页,而且还可以与特定网站互动,如此一来,该系统就有可能为各种服务和站点提供广泛的界面。在公告中,该公司表示这相当于是让其他服务成为 ChatGPT 的 ” 耳目 “。
Stephen Wolfram 的 Wolfram|Alpha 是官方插件之一,如今 ChatGPT 已经能够为上述问题提供正确的答案了,而且速度很快:
Wolfram 在帖子中写道:几十年来,关于 AI 的思考分化成了 ChatGPT 使用的 ” 统计方法 ” 与 Wolfram|Alpha 的 ” 符号方法 ” 两个派别。但是现在由于 ChatGPT 的成功以及 Wolfram|Alpha 在理解自然语言方面所做的所有工作,我们终于有机会将二者结合起来,创造出更强大的 AI。
这个故事本身证明了 AI 助手究竟是什么,以及不是什么: AI 助手的计算方式与上述我们的理解不同;它们的 ” 思考 ” 和交流方式令人震惊。坦白说,我个人也很难回答上述三个问题,而这就是我们使用计算机的原因。而如今 ChatGPT 有了自己的电脑。
这种插件架构意味着,需要有人更新维基百科,如今 ChatGPT 不会再编造财务数字了,因为它可以使用计算机:
这个答案依旧不完美,因为出于某种原因,Wolfram|Alpha 提供的数据已过时,但它获取了正确的股价:当然,Wolfram|Alpha 并不是唯一的插件,目前 ChatGPT 有 11 个插件,类别包括旅游(Expedia 和 Kayak)、餐厅预订(OpenTable)和 Zapier,为 5,000 多个其他应用程序打开了大门(目前还没有搜索网络的插件),” 插件商店 ” 提供了所有这些插件。Instacart 的集成尤其优秀:链接会打开这个页面:ChatGPT 并没有真的送菜上门,但我们距离那一天也不远了。一个限制是我必须选择 Instacart 插件,而且一次只能加载 3 个插件。但是,这个限制将来肯定会被克服,而且插件的数量也会越来越多。OpenAI 既允许客户选择插件,同时也会获得的有关用户的信息,在拍卖的基础上出售某些类别的默认插件。这听起来有点可怕,但我希望 Hawkins 的理论是正确的。他曾在《A Thousand Brains》中提到 AI 的风险:
智能是系统学习世界模型的能力。然而,由此产生的模型本身是没有价值的、没有感情的、没有目标的。目标和价值由使用该模型的系统提供。这类似于 16 世纪到 20 世纪的探险家绘制的全球地图。冷酷无情的将军可能会使用地图来计划如何包围和剿杀敌军。商人可以使用同一张地图来和平地交换货物。地图本身不会规定这些用途,也不赋予使用方式任何价值。它只是一张地图,既不凶残也不和平。当然,地图的细节和覆盖范围各不相同。因此,有些地图更适合战争,而有些地图则更适合贸易。但是,至于发动战争还是开展贸易,则取决于使用地图的人。
同样,大脑皮层也会学习世界模型,它本身没有目标或价值。指导我们行为的情绪是由旧脑决定的。如果一个人的旧脑具有攻击性,那么它将使用新皮质中的模型来更好地执行攻击性行为。如果一个人的旧脑是仁慈的,那么它会利用新皮质中的模型来更好地实现仁慈的目标。与地图一样,一个人的世界模型可能更适合一组特定的目标,但新皮质不会创造目标。
Hawkins 提到的旧脑是我们动物的大脑,驱动情绪的部分,生存和生育的动力,以及身体的子系统;而能够学习、思考和预测的是新皮层。Hawkins 认为,如果没有旧脑,我们的智能就没有行动能力,无论是在意志还是影响方面,机器智能也一样,AI 真正的风险在于使用的人的意图。
对此,我只能说让我们拭目以待。我同意 Tyler Cowen 关于 AI 的风险和人类历史不可避免的转变的论点:人工智能即将到来,我们根本不知道结果会是什么,所以我们的责任是推动人工智能取得积极的成果,让我们的生活变得更加美好。不论喜欢与否,我们都身处 Hawkins 长期以来一直寻求的大型实验:帆船正在驶向未知的海域,我们不知道是否正在朝着正确的方向行驶,直到我们到达目的地。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!