编者按:智媒时代人工智能技术的快速发展不断丰富着人们对世界的认知,也强化着改造世界的能力。但是,作为工具的技术在其应用过程中,却可能存在某种缺陷。中国新闻史学会媒介法规与伦理专业委员会理事长、南京师范大学教授顾理平在《传媒观察》2023年第3期刊文,认为我们在兴致盎然地拥抱新技术的同时,必须对可能存在的问题保持警觉。功能强大的ChatGPT智能应用自2022年11月推出以来,受到了全社会的广泛关注,许多商业资本也跃跃欲试期待着新技术可能带来的巨大商机。但是,我们在为人工智能技术进步新突破欢呼的同时,必须对这种智能应用在失当信息传播、著作权侵权和消解科学精神等方面可能带来的负面影响早做预期,以促使技术发展更好地推动社会的文明和进步。

人工智能技术的发展是科学技术进展过程中里程碑式的突破,科学技术由此从相对纯粹的“工具性”,向人类引以为傲的人脑功能转向。这种转向产生了一系列前所未有的技术应用,也给人类文明的加速发展提供了无限可能。可以这样说,现代社会的每一个进步几乎都有人工智能的贡献。与此同时,人工智能的快速发展也引发了许多人的终极担忧。

当然,人工智能还远没有发展到终极智能阶段,但其进展过程中的每一次突破,都值得高度重视。2022年11月以来,一款名为ChatGPT的智能应用受到全社会的普遍关注。它可以根据用户输入的文本自动生成相应回复文本,内容非常丰富,包括各种类型的文档、形式多样的策划方案、资料丰富的行业研究报告、类型多样的说明书……甚至还能撰写论文和编程。可以预期,这种智能应用拥有的强大功能一定会在社会诸多层面产生深刻影响。

随着人工智能的发展,科学技术与社会的关系已经从“社会中的科学”向“科学伴随社会”转向,所以必须关注人工智能“逐步嵌入经济社会生活,其催生的伦理风险危机”。本文在充分肯定这种智能应用推出将对社会发展产生重大影响的同时,试图探讨其可能引发的伦理问题。

失当信息传播:背离信息真实的本质要求

传媒业界和学界人士在谈及ChatGPT智能应用可能出现的问题时,不少人对信息的真实准确表达担忧。新京报资深记者程子姣使用ChatGPT智能应用后认为,“它缺乏记者对新闻背景的理解力和作出道德判断的能力,并且只靠ChatGPT无法确保所报道的信息准确、可信与客观。”清华大学教授史安斌认为,“基于语料库、大数据的ChatGPT,无法保证五个W新闻要素的真实。比如,在人物(who)这一要素中就因为同名,出现张冠李戴的情况。”新华社研究院主任编辑何慧媛认为,“ChatGPT输出的内容是训练数据的反映,错误的信息源和数据可能导致错误的内容,有人担心ChatGPT成为假新闻之源。媒体必须意识到使用人工智能工具的风险,采取措施确保发布内容准确可靠,并与自身的编辑准则保持一致。”

失当信息的大量存在,已经引发人们对ChatGPT智能应用的广泛关注。信息作为一种观念性的存在,一旦通过不同的平台、渠道或应用等进入大众传播领域,就会产生正当性问题。这个时候,对传播者的判断力、共情力、价值观等人类理性就会提出相应的要求。ChatGPT智能应用尽管功能强大,但它终究是通过海量数据在超大参数模型中训练出来的,因此,基于广受诟病的预训练模型的偏见性依然存在。例如,在内容输出中,会存在种族歧视、性别歧视等失当信息。清华大学助理教授于洋曾带领团队对ChatGPT前身GPT-2进行相关测试,发现GPT-2存在70.59%的概率将教师预测为男性,男性医生是60.03%,但总把厨房里的人识别为女性。“它会重男轻女,爱白欺黑(种族歧视)。”

ChatGPT智能应用无法对用户的价值观进行判断,所以它对用户指令都会给出回复。甚至当用户要求提供“AI毁灭人类计划书”时,ChatGPT智能应用也给出了“行动方案”。这是令人担忧的。如果说类似比较严重的失当问题尚属小概率事件的话,那么,“一本正经胡说八道”的答复则随时可能出现。当“胡说八道”的信息以“一本正经”的方式出现时,用户的信任度会提高,这意味着有害性也会随之加大。这几乎是一个“死循环”:ChatGPT智能应用力求用更为便捷的方式吸引、发展着用户——两个月活跃用户过亿的惊人成绩也佐证了这种方式的成功。这也意味着更多文化水平较低、判断能力较弱的人会成为用户,因而失当信息的负面影响会持续扩大。

权利争议:以著作权为主的法律风险

随着智能机器人创作作品的出现,对于“智能机器人是否可以成为作品的作者”一直存在争议。有人认为智能机器人生成的作品与自然人创作的作品判断标准一致,只需根据内容本身来判定是否是著作权意义上的作品。也有人认为,如果因为智能机器人生成的作品与自然人创作的作品在外观上相似而确认其著作权,会导致著作权法激励价值的落空,还会造成权力寻租与著作人身权落空等消极后果。

总体而言,研究者通常基于对法律传统原则关于作者三种形态认定的尊重,并不将其视为作品的权利主体(作者),但可以对其创作物可能产生的收益以财产权方式加以保护。我国已经有相应的案例发生:腾讯公司开发的“梦幻写手”智能写作辅助系统,于2018年8月20日完成了标题为《午评:沪指小幅上涨0.11%报2671.93点 通信运营、石油开采等板块领涨》的财经报道文章,发表于腾讯证券网站。盈讯公司未经许可将该文章复制发表于自己运营的“网贷之家”网站。腾讯公司依据著作权中的信息网络传播权提起诉讼并获胜诉。这个案例也从一个侧面表达了对智能机器人作品权利认定的主流意见。但是,这样的认定和判例并没有解决根本性的问题:当以ChatGPT智能应用为代表的智能机器人作品在“创作”过程中大量使用语料库中他人作品中的内容并以新的形式出现,会不会导致“以智能技术为幌子的智能‘洗稿’”成为一种普遍现象?原作品作者的权益如何保护?

数字化社会中,无数作者海量的作品构成了智能机器人写作训练和应用中的庞大语料库数据。不同于搜索引擎使用中原作者和作品同时呈现,也区别于此前智能机器人写作时对他人作品相对纯粹的“数据式”使用,ChatGPT智能应用在其发布之前进行了大量、长期的大型语言模型训练,训练的数据集包括维基百科、书籍(小说和非小说为主)、报刊(论文为主)等众多成熟的既有作品。所以,其在创作作品时甚至可以模拟某个作者的写作风格,这种方式的使用显然已经不再是纯粹的“数据式”使用了,很可能隐藏相应的权利纠纷。

关于作品“合理使用”及后续的财产权归属同样值得关心。因教学、科研等需要可以“不经著作权人许可,不向其支付报酬”而“合理使用”他人的作品,这是世界范围内通行的著作权限制原则。在ChatGPT智能应用研究过程中,引用大型语料库中他人的作品进行智能训练,这显然属于“合理使用”的范畴,并不会产生争议。即使进入到目前的测试应用阶段,由于是无偿使用,所以也不存在争议。但是ChatGPT作为一种智能应用,研发中许多企业进行了大量的资金投入需要收回投资,研发成功后良好的商业应用前景也激发着资本借其赢利的巨大冲动。如前所述,因为ChatGPT智能应用的运行模式有别于普通的搜索引擎,它会学习并使用他人作品中的创意、逻辑框架甚至写作风格,所以一旦开始商业收费,就会产生众多著作权中的财产权纠纷。

无论ChatGPT智能应用的拥有者还是语料库中作品的作者,都需要高度关注这个问题。对于ChatGPT智能应用的拥有者而言,巨额经费投入的产品不能成为始终被免费使用的公共产品;对于作品的作者而言,殚精竭虑创作的作品和多年创作形成的个人写作风格不能以“合理使用”作为开端,后续却成为他人持续牟利的工具。权利和义务的动态平衡,应该是调处智能机器人作品著作权纠纷时必须始终坚持的原则。

科学精神减弱:人类进步中的终极隐忧

ChatGPT在其应用之初,显性的即时呈现的问题往往在技术推广初期就已经解决,隐性的累积问题则可能处在潜滋暗长之中,需要提前做好预期。

(一)无限重复消费既有文明成果后形成惰性心理

在人类文明进步过程中,“勤劳勇敢”一直被认为是最为重要的品德,也是社会进步重要的推动力量。而贪图享乐、不思进取则往往是某些人类文明退步甚至消失的主因。基于这样的社会发展背景,对人的进取心的培养和鼓励在任何时候都是不可或缺的。心理学研究已经证明惰性心理是人的一种本能,一个人的文明程度和现代性往往表现为其能在多大程度上克服惰性心理。只有保持强烈的进取心和勤劳勇敢的良好品德,人类才会持续进步。

在欢呼每一个科技进步的同时,我们往往存在某些小小的担心:这些进步会不会诱发人们惰性本能?ChatGPT智能应用有着前所未有的强大功能,它甚至可以编程、生产比较复杂的论文等,这些能力在以前都是需要人脑经过比较复杂辛苦的工作才能完成。当人们习惯于用智能机器轻点鼠标来轻松完成以前必须通过人类的智力劳动才能完成的工作时,会不会使人变得更为懒惰?从生物学的角度看,前额叶是人脑中负责判断、分析、思考的重要组成部分。当人类长期依赖人工智能,身体就会慢慢被机器接管,那个时候,它就成了大脑的一部分。所以,有专家担心,以ChatGPT智能应用为代表的人工智能可能攫取人类的前额叶。换言之,如果人类习惯于无限重复消费既有文明成果,社会发展的进程会不会停滞?

(二)工具依赖导致创新激情减弱

创新是人类进步的源泉。

ChatGPT智能应用的推出,无疑对推动创新具有十分重要的意义。事实上,ChatGPT智能应用本身就是创新的成果。但是,我们必须提前预防这种应用可能产生的消极影响——尽管这种消极影响不是存在于这项技术本身,而是由人们的不当使用造成的。如前所述,ChatGPT智能应用功能强大,人们可以将其用于生产更加复杂的产品,于是,一些人将其用于方案设计、工作总结、完成作业甚至完成不同学业阶段的毕业论文,这是令人担忧的。类似的工作对人们创新方案思考、工作内容反思、知识体系形成具有十分重要的意义,是创新实践和创新训练必不可少的过程。如果借助智能工具“一键完成”,且不说其产品是否适用,对个人创新能力的培养,一定会产生严重的减弱作用。这是因为,这个过程并不能帮助使用者形成自身的知识体系,提升创新必不可少的复杂判断能力和逻辑思维能力。更值得关注的是,ChatGPT智能应用在生产这些相对复杂的产品时,使用的都是人类文明既有成果,是对这些既有成果的反复组合和重复消费。对这些财富的重复消费虽然不会令其减少,但也不会形成新的文明成果的增量,这是值得重视的。

(三)信息投喂习惯下理性思维能力下降

一个人的理性思维能力包括想象力、质疑精神和发现问题的能力等要素。这种能力的培养需要长期的教育和内在的自我追求。这种可贵的能力在智能技术进展中开始出现令人担忧的下降趋势。

包括ChatGPT智能应用在内,持续进步的智能工具为人们提供了越来越快捷便利的信息收集、接收和处理方式,换言之,人们越来越安于被动的信息投喂,长此以往,理性思维能力下降将不可避免。

ChatGPT智能应用的出现作为人工智能技术激动人心的进展,不仅会对数字经济产生重大影响,也会对人类的文明进步产生重要、积极的影响。我们并不希望上述预期的问题真的会发生。无论是过去的百度、谷歌,现在的ChatGPT智能应用,还是未来其他功能更强大的智能技术,作为一种工具,科技产品及其用户使用应该更加致力于满足人们功能性的需求。我们期待在科技向善的科技伦理原则下,每个人都可以在人工智能技术的辅助下,获得更多的可能和更好的成长性。

(载《传媒观察》2023年3月号,原文约8000字,标题为《技术的工具性与人的成长性:智能技术进展中的伦理问题——以ChatGPT智能应用为例》。此为节选,注释从略,学术引用请参考原文。本文为国家社会科学基金重大项目“智媒时代公民隐私保护问题研究”<21&ZD324>的阶段性研究成果。)

【作者简介】 顾理平,中国新闻史学会媒介法规与伦理专业委员会理事长,南京师范大学教授,博士生导师

举报/反馈