文章主题:人工智能, 自然语言处理, 深度学习, 生成式人工智能
【人工智能时代的伦理挑战】聊天程序ChatGPT的崛起引发了人们对人工智能在各行各业影响的关注。在这个背景下,复旦大学通识教育中心组织了一系列关于“人工智能”的活动,邀请了校内外不同领域的专家,从多学科角度探讨并解读人工智能对人类社会的影响。本文将为大家呈现段伟文教授的研究成果——《如何理解和应对ChatGPT与生成式人工智能的开放性伦理挑战》。在这个科技飞速发展的时代,人工智能正逐渐渗透到我们的生活和工作中。作为一款备受瞩目的聊天机器人,ChatGPT以其独特的魅力吸引了众多眼球。然而,随着人工智能技术的不断进步,我们也应警惕其可能带来的伦理风险。面对这一挑战,我们需要从多学科的角度审视人工智能的伦理问题。复旦大学通识教育中心的“人工智能”系列活动正是为了引导我们深入探讨这一话题。通过这次活动,我们希望建立一个平台,让校内外不同领域的学者们汇聚一堂,共同交流和分享关于人工智能的见解。今天,我们将目光投向了ChatGPT与生成式人工智能,它们的出现无疑给我们的伦理观念带来了全新的挑战。在段伟文教授的《如何理解和应对ChatGPT与生成式人工智能的开放性伦理挑战》一文中,我们将从实际出发,深入剖析这些挑战,并提出应对策略。在这个新的科技浪潮中,我们需要保持清醒的头脑,理性看待人工智能的发展。只有这样,我们才能确保在享受科技带来的便利的同时,不失去我们的道德立场。让我们一同关注这个问题,共同迎接人工智能时代带来的挑战与机遇。
自图灵等计算机科学先驱提出计算机能像人一样思考和行动以来,人工智能能否构建出类似于人类的智能,甚至超越人类,一直是科学家们争论的焦点。随着近年来数据驱动的人工智能热潮的到来,这个问题也逐渐从理论上的探讨转变为如何在技术上应对可能的颠覆性创新。从基于深度学习的人工智能击败人类围棋棋手,到近期以ChatGPT为代表的生成式人工智能取得了惊人的成功,特别是ChatGPT在处理自然语言问题和给出正确、清晰的回答方面的表现,如同巨型魔术表演一般,引发了人们对科技未来的想象。然而,面对这种”创造性破坏”带来的海啸般冲击,人们不仅看到了通用人工智能甚至超级智能的潜在风险,而且越来越意识到,必须认真思考和对待可能引发的开放性社会风险和价值伦理挑战。
人工智能的工程创新与智能理论间的认知落差
ChatGPT是一种生成式人工智能语言模型,基于大型预训练语言模型(LLM)技术,其成功得益于基于人类反馈的强化学习(RLHF)对模型的微调。这种技术使得ChatGPT不仅可以实现流畅的对话功能,而且可以让机器的目标和意图符合人的要求,从而基本实现了“人机对齐”。因此,ChatGPT能够较为准确地执行自然语言理解与生成任务,包括问答、分类、摘要和创作等。由于它可以自动快速地输出逻辑自洽的回答,甚至可以生成类似人类作者写出的文章和报告,因此在实际应用中具有很高的价值。
ChatGPT 作为演示样本虽然在某些方面仍有待改善,但其展示出的人机对话流畅度已经超越了人类,这表明其在理论层面对人工智能和智能的理解已经突破了传统的认知框架。首先,虽然 ChatGPT 并无自主意识和自我意识,无法真正理解人类语言,但它可以根据人类的指示和新的信息来调整回答,显示出具备了一定程度的自然语言理解能力和推理优化的能力。其次,基于 ChatGPT 构建的大型预训练模型拥有强大的泛化能力,即处理不同于之前遇到的情况和任务的能力,这实际上打破了传统的人工智能二分法,即专用人工智能和通用人工智能的界限。最后,所谓的“人工智能效应”悖论在 ChatGPT 的出现下得到了缓解,因为不仅仅能实现类人类语言的自动化,还能利用语言指令与其他模态的人工智能如图像、音视频等生成内容进行无限组合,从而展现出更广泛的人工智能应用可能性。
同时,它的出现也在一定程度上挑战了人工智能怀疑者对于通用人工智能的认知框架。在几年前,面对深度学习取得的重大突破,即将达到或超越人类智能的奇点,科学社会学家柯林斯(Harry Collins)仍对人工智能向通用人工智能发展的潜力表示疑虑。他在《人工虚构智能:反对人性向计算机缴械》(2018)这本书中,从“嵌入认知”理论出发,提出了“连环掌”观点:(1) 如果计算机未能完全嵌入正常的人类社会,那么它就无法熟练运用自然语言,通过严格的图灵测试,并具备完全类似于人类的智能;(2) 虽然相较于其他人工智能方法,深度学习更容易将计算机嵌入人类社会,但由于其现有技术基于渐进式发展,计算机无法完全融入人类社会。然而,ChatGPT在工程上展示出强大的自然语言对话能力,这在很大程度上打破了柯林斯等人的悲观预期,甚至超过了大部分技术乐观主义者所能预见的范围。
这再次强调了,无论是在对智能及其理论构想的理解,还是在德雷福斯到柯林斯等人对人工智能限制的理论反思方面,都与实际工程中实现的人工智能之间存在显著的认知差距。这种差距的产生,源于人工智能发展过程中理论思维与工程思维之间的矛盾冲突。如果将能够应对无限任务、具备自主性以及拥有价值系统的“关键特性”视为通用人工智能的标准,那么ChatGPT显然无法满足这些要求。然而,问题在于如何在工程实践中检验这些“关键特性”。
在回顾人工智能的发展轨迹时,我们可以发现,智能和认知的哲学研究常常对人工智能技术和工程中的“理论漏洞”进行批判,以此来促进人工智能的范式变革。例如,近年来,具身认知、嵌入认知、生成认知、延展认知和情境认知等“4E S”认知模型被深入探讨。在这些模型中,缺乏某些维度被认为是难以成为真正意义上的认知。同样,这也为技术和工程上实现人工智能提供了批评的依据。另一方面,在人工智能的讨论中,人工智能体是否具备“意识”的问题被视为人们公认的人工智能可能带来的最大风险,同时也是人工智能怀疑者认为的真正智能的象征。然而,当前认知科学和哲学对这个问题的理解仍然十分有限。人们能够在工程技术层面上进行的防范措施,仍然是应对这个问题的关键所在。
类似于柯林斯的“连环掌”,许多关于智能的理论认知框架往往缺乏必要的谦逊,未能将其立场视为探究视角之一,容易陷入固守“先验”标准的封闭式否定思维。相反,工程思维主要体现在工程实践中的累积创新和涌现创新,它是一种基于技术产业演进的“后验”迭代的开放性思维方式。这种思维方式常导致对某些技术路径的偏执性选择,并在技术演进过程中赋予这些选择新的内涵。
受到两者之间的这种认知落差的影响,理论研究者和批评者无法预见人工智能工程实践可能涌现出的重大突破,工程实践者和喝彩者则难以前瞻技术上的突破在社会价值伦理层面所引发的革命性影响,由此形成的总体认知状态显然无法应对包括超级智能在内的开放性伦理风险。
基于人机交互智能的生成式人工智能与人机对齐
为何会出现这一认知落差呢?这其中固然有人工智能前沿创新高度不确定的原因,但不容忽视的原因是人们思考相关问题时所采用的实体论预设。耐人寻味的是,不论是理论反思者还是从事工程实践的人,在相关的探讨中大多将人工智能与人类智能预设为相互分立的智能体,大多聚焦二者的高下之分和此消彼长,而较少以两者之间的交互作为思考的出发点,从技术社会系统和智能生态系统的维度理解人工智能体的实质。
但实际上,从基于大数据的深度学习到基于大模型的生成式人工智能,其创新应用都发生于数据、算法、算力等所构建的巨型技术社会系统之中,是在高度社会化的人机交互智能生态系统中形成的。它们之所以可实现功能上的突破,固然源于数据量和模型参数大到一定规模后的功能涌现,更重要的是要充分认识到人类反馈微调和使用中的人机智能交互对其性能改进的作用。
目前业界和学界对生成式人工智能伦理风险的认知大多滞留于网络媒体和数字平台涉及的相关问题,聚焦于偏见、歧视、数据滥用、信息误导、用户操纵、虚假内容和恶意使用等方面。这些问题其实是现实世界中存在的问题在大数据、人工智能等数字技术应用中的折射与放大,并且在生成式人工智能中进一步延伸和加剧,故对它们的关注的确具有紧迫性。
而实际上,在ChatGPT的研发过程中,Open AI的技术路线就是在高度社会化的人机交互智能系统中展开的。ChatGPT所采用的人工智能新范式基于对自然语言内在的同质化形式和结构的学习,其中既有海量的文本数据集,也包括运行中大量的人机对话数据,其内容生成思路是学习与预训练的结合——首先是自动提取相关内容并加以聚合,然后通过人机对齐工程对其目标和价值加以必要的修正。
依照Open AI的说法,之所以实施人机对齐工程的背景是,Open AI对其所开发的GPT系列大模型以及ChatGPT的技术定位是探索通用人工智能。为了防范由此可能带来的颠覆性社会伦理影响,开发者通过人类标注、反馈、审核等工程方法对生成的类自然语言中的价值冲突和伦理争议进行了校准,对生成内容与语言表达策略进行了持续监督和不断优化。这使ChatGPT的输出对价值敏感问题相对谨慎、持平,主动回避有争议的问题、甚至拒绝回答。
人机对齐工程的实施表明,由于存在着包括超级人工智能可能引发的人类生存风险在内的巨大社会伦理风险,生成式人工智能的技术开发与价值伦理调节从一开始就是同步进行的。由此,可以得到二个重要的启示。一方面,人机对齐工程的实施表明,对生成式人工智能进行价值伦理矫正并防范恶性后果在工程上是可行的,这为其创新应用中恪守价值底线和红线提供了可借鉴的经验。当然,必须明确指出的是,作为语言模型的ChatGPT本身并不真正理解各种价值观的内涵。另一方面,人机对齐工程是在人机交互的基础上的实施的,不论是在训练数据之中还是在人工标注等人类反馈环节,都负载着利益相关者的利益和好恶,会受到各种价值预设和文化选择的影响,必然存在一定的偏向性。
超越知识生成自动化的知识权威幻象与图灵陷阱
人机对齐工程所进行的价值伦理矫正固然有助于对人工智能生成内容的法律规制和伦理治理,但更重要的是,要看到以ChatGPT为里程碑的生成式人工智能是机器智能与人类智能全新的交互组合方式,我们正在开启借助人工智能自动生成知识并全面重塑生活的前所未有时代。从知识生产方式的范式转换来看,如果说大数据分析带来的是堪比微积分的新分析,那么ChatGPT所开启的大模型加人类反馈的自动化知识生成方式则是面向智能化未来的新综合。而对这一新综合的拥抱将迫使我们面对一系列全新伦理挑战,除了热议的违背学习和研究诚信、侵犯知识产权等问题之外,尤其值得关注的是以下两个具有开放性的社会伦理挑战。
一是将自动生成的知识视为神谕的知识权威幻象。拥抱知识生成自动化必然面对的一个悖论是,生成式人工智能系统固然能带来知识生成效率的提升,但它并非知识大全和全能的知识的领会者。这种从海量训练数据中拼凑出答案的语言形式生成系统如同自动的随机鹦鹉,其自身既不真正理解输入输出数据的意义,也没有自己的目标,更不知道什么是研究和学习以及为什么要研究和学习。但人们往往会产生一种将它们视为自动化的知识生产者的幻象,而没有注意到,虽然它们能够产生连贯的文本,但其意义和连贯性是在人类与机器的互动中形成的,而它们并没有试图表达什么。如果认识不到这种幻象,就容易产生将生成式人工智能视为知识权威和道德权威的风险。随着ChatGPT的进一步发展,有望演变为普通人日常生活中的人工智能助手,成为解答知识、辨别是非乃至区分善恶的重要工具。鉴于ChatGPT并不真正理解其所生成的知识内容以及对是非善恶的判断,而且有时会产生荒谬的错误或随意堆砌和编造的内容,在缺乏批判性思考的情况下,将ChatGPT简单地视为教育、医疗、心理、精神方面的解惑者或指导者,难免放大由知识生成错误和不准确造成的危害。
二是由盲目的智能化和自动化导致的图灵陷阱。如果不能认识到生成式人工智能建立在人机交互的智能生态系统乃至遍布地球的智能科技社会系统之上,就看不到知识生成自动化的基础和前提是对人类智能的提取,其运作过程既是对知识和智能的重新定义,也是对地球生态环境、人类社会和个人的重构。如果缺乏对这一过程的反思,就可能陷入各种图灵陷阱:在教育和研究中无条件采用自动化生成知识,在工作中无限度地用自动化取代人类智能,完全不顾及能源消耗的自动化知识生成还会使地球生态环境不堪重负。之所以会出现图灵陷阱,是因为智能和自动化系统没有做到以人为本,在人工智能的部署中往往迫使人被动地适应智能化和自动化——在很多情况下,“自动建议”“自动更正”等智能系统的运作预设不是使机器人性化,而是让人越来越机器化,使人的自主性在不经意间被自动剥夺。
为了克服人工智能的知识权威幻象,超越图灵陷阱,无疑需要全社会展开进一步的讨论,以构建我们对可接受的深度智能化未来的合理想象。而从观念上讲,必须直面的问题是:人类在知识和智能上能否保有主创者和主导者地位?人的主体性能否经受住来自人工智能的挑战?如果未来不会出现人工智能超越人类智能的奇点,我们似乎可以坚持:一方面,人应该成为最终的知识权威;另一方面,人工智能应该更多地作为人的智能助手,而不是一味地用智能化和自动化取代人的工作和替代人的技能。
最后,从长期风险来看,ChatGPT强大功能的涌现表明,对于大模型的研发必须真正开始警惕出现有意识的通用人工智能的可能性,将人工智能可能威胁人类生存的安全风险的及时防范作为其发展的前提。OpenAI的首席执行官山姆.奥特曼在最近的一篇博文中再次宣示了其发展通用人工智能的初衷,并强调要确保造福人类。这种站在道德制高点上的高调宣示其实表明,他已经认识到通用人工智能的巨大风险,但人类的未来能能否避免由此带来的生存风险,显然不能仅仅寄希望于其作出的审慎发展的承诺。
(本文经删节编辑后发表于《中国社会科学报》2023年3月7日第7版。) 本专栏内容由复旦大学通识教育中心组稿。AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!