传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长
期刊论文

传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长

编者按:智媒时代人工智能技术的快速发展不断丰富着人们对世界的认知,也强化着改造世界的能力。但是,作为工具的技术在其应用过程中,却可能存在某种缺陷。中国新闻史学会媒介法规与伦理专业委员会理事长、南京师范大学教授顾理平在《传媒观察》2023年第3期刊文,认为我们在兴致盎然地拥抱新技术的同时,必须对可能存在的问题保持警觉。功能强大的ChatGPT智能应用自2022年11月推出以来,受到了全社会的广泛关注,许多商业资本也跃跃欲试期待着新技术可能带来的巨大商机。但是,我们在为人工智能技术进步新突破欢呼的同时,必须对这种智能应用在失当信息传播、著作权侵权和消解科学精神等方面可能带来的负面影响早做预期,以促使技术发展更好地推动社会的文明和进步。 人工智能技术的发展是科学技术进展过程中里程碑式的突破,科学技术由此从相对纯粹的“工具性”,向人类引以为傲的人脑功能转向。这种转向产生了一系列前所未有的技术应用,也给人类文明的加速发展提供了无限可能。可以这样说,现代社会的每一个进步几乎都有人工智能的贡献。与此同时,人工智能的快速发展也引发了许多人的终极担忧。 当然,人工智能还远没有发展到终极智能阶段,但其进展过程中的每一次突破,都值得高度重视。2022年11月以来,一款名为ChatGPT的智能应用受到全社会的普遍关注。它可以根据用户输入的文本自动生成相应回复文本,内容非常丰富,包括各种类型的文档、形式多样的策划方案、资料丰富的行业研究报告、类型多样的说明书……甚至还能撰写论文和编程。可以预期,这种智能应用拥有的强大功能一定会在社会诸多层面产生深刻影响。 随着人工智能的发展,科学技术与社会的关系已经从“社会中的科学”向“科学伴随社会”转向,所以必须关注人工智能“逐步嵌入经济社会生活,其催生的伦理风险危机”。本文在充分肯定这种智能应用推出将对社会发展产生重大影响的同时,试图探讨其可能引发的伦理问题。 失当信息传播:背离信息真实的本质要求 传媒业界和学界人士在谈及ChatGPT智能应用可能出现的问题时,不少人对信息的真实准确表达担忧。新京报资深记者程子姣使用ChatGPT智能应用后认为,“它缺乏记者对新闻背景的理解力和作出道德判断的能力,并且只靠ChatGPT无法确保所报道的信息准确、可信与客观。”清华大学教授史安斌认为,“基于语料库、大数据的ChatGPT,无法保证五个W新闻要素的真实。比如,在人物(who)这一要素中就因为同名,出现张冠李戴的情况。”新华社研究院主任编辑何慧媛认为,“ChatGPT输出的内容是训练数据的反映,错误的信息源和数据可能导致错误的内容,有人担心ChatGPT成为假新闻之源。媒体必须意识到使用人工智能工具的风险,采取措施确保发布内容准确可靠,并与自身的编辑准则保持一致。” 失当信息的大量存在,已经引发人们对ChatGPT智能应用的广泛关注。信息作为一种观念性的存在,一旦通过不同的平台、渠道或应用等进入大众传播领域,就会产生正当性问题。这个时候,对传播者的判断力、共情力、价值观等人类理性就会提出相应的要求。ChatGPT智能应用尽管功能强大,但它终究是通过海量数据在超大参数模型中训练出来的,因此,基于广受诟病的预训练模型的偏见性依然存在。例如,在内容输出中,会存在种族歧视、性别歧视等失当信息。清华大学助理教授于洋曾带领团队对ChatGPT前身GPT-2进行相关测试,发现GPT-2存在70.59%的概率将教师预测为男性,男性医生是60.03%,但总把厨房里的人识别为女性。“它会重男轻女,爱白欺黑(种族歧视)。” ChatGPT智能应用无法对用户的价值观进行判断,所以它对用户指令都会给出回复。甚至当用户要求提供“AI毁灭人类计划书”时,ChatGPT智能应用也给出了“行动方案”。这是令人担忧的。如果说类似比较严重的失当问题尚属小概率事件的话,那么,“一本正经胡说八道”的答复则随时可能出现。当“胡说八道”的信息以“一本正经”的方式出现时,用户的信任度会提高,这意味着有害性也会随之加大。这几乎是一个“死循环”:ChatGPT智能应用力求用更为便捷的方式吸引、发展着用户——两个月活跃用户过亿的惊人成绩也佐证了这种方式的成功。这也意味着更多文化水平较低、判断能力较弱的人会成为用户,因而失当信息的负面影响会持续扩大。 权利争议:以著作权为主的法律风险 随着智能机器人创作作品的出现,对于“智能机器人是否可以成为作品的作者”一直存在争议。有人认为智能机器人生成的作品与自然人创作的作品判断标准一致,只需根据内容本身来判定是否是著作权意义上的作品。也有人认为,如果因为智能机器人生成的作品与自然人创作的作品在外观上相似而确认其著作权,会导致著作权法激励价值的落空,还会造成权力寻租与著作人身权落空等消极后果。 总体而言,研究者通常基于对法律传统原则关于作者三种形态认定的尊重,并不将其视为作品的权利主体(作者),但可以对其创作物可能产生的收益以财产权方式加以保护。我国已经有相应的案例发生:腾讯公司开发的“梦幻写手”智能写作辅助系统,于2018年8月20日完成了标题为《午评:沪指小幅上涨0.11%报2671.93点 通信运营、石油开采等板块领涨》的财经报道文章,发表于腾讯证券网站。盈讯公司未经许可将该文章复制发表于自己运营的“网贷之家”网站。腾讯公司依据著作权中的信息网络传播权提起诉讼并获胜诉。这个案例也从一个侧面表达了对智能机器人作品权利认定的主流意见。但是,这样的认定和判例并没有解决根本性的问题:当以ChatGPT智能应用为代表的智能机器人作品在“创作”过程中大量使用语料库中他人作品中的内容并以新的形式出现,会不会导致“以智能技术为幌子的智能‘洗稿’”成为一种普遍现象?原作品作者的权益如何保护? 数字化社会中,无数作者海量的作品构成了智能机器人写作训练和应用中的庞大语料库数据。不同于搜索引擎使用中原作者和作品同时呈现,也区别于此前智能机器人写作时对他人作品相对纯粹的“数据式”使用,ChatGPT智能应用在其发布之前进行了大量、长期的大型语言模型训练,训练的数据集包括维基百科、书籍(小说和非小说为主)、报刊(论文为主)等众多成熟的既有作品。所以,其在创作作品时甚至可以模拟某个作者的写作风格,这种方式的使用显然已经不再是纯粹的“数据式”使用了,很可能隐藏相应的权利纠纷。 关于作品“合理使用”及后续的财产权归属同样值得关心。因教学、科研等需要可以“不经著作权人许可,不向其支付报酬”而“合理使用”他人的作品,这是世界范围内通行的著作权限制原则。在ChatGPT智能应用研究过程中,引用大型语料库中他人的作品进行智能训练,这显然属于“合理使用”的范畴,并不会产生争议。即使进入到目前的测试应用阶段,由于是无偿使用,所以也不存在争议。但是ChatGPT作为一种智能应用,研发中许多企业进行了大量的资金投入需要收回投资,研发成功后良好的商业应用前景也激发着资本借其赢利的巨大冲动。如前所述,因为ChatGPT智能应用的运行模式有别于普通的搜索引擎,它会学习并使用他人作品中的创意、逻辑框架甚至写作风格,所以一旦开始商业收费,就会产生众多著作权中的财产权纠纷。 无论ChatGPT智能应用的拥有者还是语料库中作品的作者,都需要高度关注这个问题。对于ChatGPT智能应用的拥有者而言,巨额经费投入的产品不能成为始终被免费使用的公共产品;对于作品的作者而言,殚精竭虑创作的作品和多年创作形成的个人写作风格不能以“合理使用”作为开端,后续却成为他人持续牟利的工具。权利和义务的动态平衡,应该是调处智能机器人作品著作权纠纷时必须始终坚持的原则。 科学精神减弱:人类进步中的终极隐忧 ChatGPT在其应用之初,显性的即时呈现的问题往往在技术推广初期就已经解决,隐性的累积问题则可能处在潜滋暗长之中,需要提前做好预期。 (一)无限重复消费既有文明成果后形成惰性心理 在人类文明进步过程中,“勤劳勇敢”一直被认为是最为重要的品德,也是社会进步重要的推动力量。而贪图享乐、不思进取则往往是某些人类文明退步甚至消失的主因。基于这样的社会发展背景,对人的进取心的培养和鼓励在任何时候都是不可或缺的。心理学研究已经证明惰性心理是人的一种本能,一个人的文明程度和现代性往往表现为其能在多大程度上克服惰性心理。只有保持强烈的进取心和勤劳勇敢的良好品德,人类才会持续进步。 在欢呼每一个科技进步的同时,我们往往存在某些小小的担心:这些进步会不会诱发人们惰性本能?ChatGPT智能应用有着前所未有的强大功能,它甚至可以编程、生产比较复杂的论文等,这些能力在以前都是需要人脑经过比较复杂辛苦的工作才能完成。当人们习惯于用智能机器轻点鼠标来轻松完成以前必须通过人类的智力劳动才能完成的工作时,会不会使人变得更为懒惰?从生物学的角度看,前额叶是人脑中负责判断、分析、思考的重要组成部分。当人类长期依赖人工智能,身体就会慢慢被机器接管,那个时候,它就成了大脑的一部分。所以,有专家担心,以ChatGPT智能应用为代表的人工智能可能攫取人类的前额叶。换言之,如果人类习惯于无限重复消费既有文明成果,社会发展的进程会不会停滞? (二)工具依赖导致创新激情减弱 创新是人类进步的源泉。 ChatGPT智能应用的推出,无疑对推动创新具有十分重要的意义。事实上,ChatGPT智能应用本身就是创新的成果。但是,我们必须提前预防这种应用可能产生的消极影响——尽管这种消极影响不是存在于这项技术本身,而是由人们的不当使用造成的。如前所述,ChatGPT智能应用功能强大,人们可以将其用于生产更加复杂的产品,于是,一些人将其用于方案设计、工作总结、完成作业甚至完成不同学业阶段的毕业论文,这是令人担忧的。类似的工作对人们创新方案思考、工作内容反思、知识体系形成具有十分重要的意义,是创新实践和创新训练必不可少的过程。如果借助智能工具“一键完成”,且不说其产品是否适用,对个人创新能力的培养,一定会产生严重的减弱作用。这是因为,这个过程并不能帮助使用者形成自身的知识体系,提升创新必不可少的复杂判断能力和逻辑思维能力。更值得关注的是,ChatGPT智能应用在生产这些相对复杂的产品时,使用的都是人类文明既有成果,是对这些既有成果的反复组合和重复消费。对这些财富的重复消费虽然不会令其减少,但也不会形成新的文明成果的增量,这是值得重视的。 (三)信息投喂习惯下理性思维能力下降 一个人的理性思维能力包括想象力、质疑精神和发现问题的能力等要素。这种能力的培养需要长期的教育和内在的自我追求。这种可贵的能力在智能技术进展中开始出现令人担忧的下降趋势。 包括ChatGPT智能应用在内,持续进步的智能工具为人们提供了越来越快捷便利的信息收集、接收和处理方式,换言之,人们越来越安于被动的信息投喂,长此以往,理性思维能力下降将不可避免。 ChatGPT智能应用的出现作为人工智能技术激动人心的进展,不仅会对数字经济产生重大影响,也会对人类的文明进步产生重要、积极的影响。我们并不希望上述预期的问题真的会发生。无论是过去的百度、谷歌,现在的ChatGPT智能应用,还是未来其他功能更强大的智能技术,作为一种工具,科技产品及其用户使用应该更加致力于满足人们功能性的需求。我们期待在科技向善的科技伦理原则下,每个人都可以在人工智能技术的辅助下,获得更多的可能和更好的成长性。 (载《传媒观察》2023年3月号,原文约8000字,标题为《技术的工具性与人的成长性:智能技术进展中的伦理问题——以ChatGPT智能应用为例》。此为节选,注释从略,学术引用请参考原文。本文为国家社会科学基金重大项目“智媒时代公民隐私保护问题研究”<21&ZD324>的阶段性研究成果。) 【作者简介】 顾理平,中国新闻史学会媒介法规与伦理专业委员会理事长,南京师范大学教授,博士生导师 举报/反馈
解读ChatGPT背后的研究力量:90后成主力军
研博论文

解读ChatGPT背后的研究力量:90后成主力军

来源:AI科技评论 作者:黄楠、陈彩娴 编辑:好困 【新智元导读】被认为研发经验不足的年轻人才,也可以成为前沿技术突破的重要推动者。 ChatGPT 的火爆,不仅为 OpenAI 带来资本的关注、用户的青睐,在关于「OpenAI 为何能做出 ChatGPT」的讨论中,其人员优势也成为外界瞩目的焦点。 近日,智谱研究联合 AMiner 发布了一份 OpenAI 背后研究团队的统计报告。据报告显示,本次在 ChatGPT 项目中做出贡献的人员共87人,其中包括了「年纪很轻」、「背景豪华」、「聚焦技术」、「积累深厚」、「崇尚创业」和「华人抢眼」等显著特征。 报告链接:https://mp.weixin.qq.com/s/Y_LjjsuoEEmhIg5WO_iQhA 在这样一个不足百人团队中,诞生了现象级的大型语言模型 ChatGPT,这对谷歌、微软、百度、阿里等大厂而言都是不小的压力,纷纷紧随其后,发布、或预发布类 ChatGPT 产品。 作为一家非盈利的人工智能研究机构,一直以来,OpenAI 都被诸多有志于发展 AI 事业的青年人才视为技术天堂。在这里,他们可以直接参与最前沿、最具创造力的 AI 项目, 调用最核心的科研资源,心无旁骛地投身到技术创新中。 而近年来,边缘化、举棋不定使国内大厂中的 AI 研究院和科研人才面临着生存难题,但相信在这次 ChatGPT 的冲击下,AI 人才重新回归大众视野,也将迎来新一轮的争夺和洗牌。 技术人员占比近九成,90后是主力军 从 ChatGPT 团队职位分工(图1)来看, 在参与此次项目的87人中,研发人员的数量就达到了77位,占比88%,其中包括了公司联合创始人 Wojciech Zaremba,他在此前被评选为 2023 年度 AI 2000...
ChatGPT检测器频繁冤枉无辜学生,竟有210万教师在用
本科论文

ChatGPT检测器频繁冤枉无辜学生,竟有210万教师在用

编辑:桃子 【新智元导读】被AI冤枉的你,还好吗? 当你被AI无辜扣上「作弊」的帽子,作何感想? 这件事恰恰发生在了一位高三学生Lucy Goetz身上。原本她写的一篇社会主义原创论文得了最高分。 但是,Turnitin公司的AI写作检测器竟说,Goetz论文结尾是用ChatGPT生成的。 Goetz震惊道,「我很高兴能和老师们保持良好的关系」。 简言之,还好老师了解我,不然跳进黄河都洗不清了。 而更令人惊讶的是,这个ChatGPT检测器现在已经被210万名教师使用。 AI无法打败AI Goetz的论文中被标记出的部分属于异常情况,但这表明检测器有时会出错。 显然,AI是无法打败AI的。这对许多学生来说可能产生灾难性的后果。 为了测试Turnitin的检测器,华盛顿时报的记者Geoffrey A. Fowler对Goetz在内的5名高中生进行了测试。 他们创作了16篇涵盖真实、AI生成,以及混合来源的论文样本。 结果如何呢? Turnitin的检测器至少在一半以上的样本中出现错误,仅是准确识别出了其中6篇,但在3篇上的检测都失败了。其中就包括对Goetz原创论文中8%内容的标记错误。 对于剩下的7篇,Fowler称,「我只会给它部分分数,因为它的判断大致正确,但错误识别了一些ChatGPT生成或混合来源的写作部分。」 然而,Turnitin声称其检测器的整体准确率达到98%。该公司还表示,在其自身测试中,类似Goetz论文的情况(即假阳性)发生的概率不到1%。 Turnitin的AI检测器详细页面会分配一个总分,并突出显示疑似AI生成的句子。该公司表示,它故意用蓝色而非红色标记疑似AI生成的段落,并在得分下方链接教师资源。 加州康科德市Goetz的AP英语课老师Rebecca Dell表示,Turnitin标记AI文本的系统并不总是有效,这令人担忧。 与抄袭指控不同,AI作弊没有源文件作为证据,这最容易让老师对学生带有偏见。 或许并不是每个人都像Goetz那么幸运。 Goetz表示,「对于学生来说,被指控AI作弊尤其令人恐惧。除非你的老师了解你的写作风格,或者对你非常信任,否则没有办法证明你没有作弊」。 AI检测为何如此困难 自ChatGPT面世以来,已经被许多高校的学生和老师用在日常的作业和教学中。 然而,如果不加以限制,ChatGPT将会变成史上最强大的作弊工具,可以帮助学生们写作业,甚至是完成考试论文。 为了反侦察,一款简单易用的检测器成为老师期盼的东西。一位22岁普林斯顿大学的学生Edward Tian,就自行开发了一款检测器——GPTZero。 甚至,OpenAI官宣推出一个新工具,名为AI Text Classifier的文件检测器。 但是,这些检测器的表现并不如人意。 检测出AI创作的内容听起来很简单。但当给你一封手写邮件和ChatGPT生成的邮件后,我们几乎无法辨别。 Turnitin的人工智能副总裁Eric Wang称,用软件检测人工智能写作涉及统计学。从统计学的角度来看,人工智能与人类的区别在于它极其稳定地处于平均水平。 直白点讲,AI水平很稳定。然而,实际上并非这样一个道理。 「像ChatGPT这样的系统就像是自动补全的高级版本,寻找下一个最可能要写的单词。这实际上就是它为什么读起来如此自然的原因。AI写作是人类写作中最可能的子集。」 Turnitin的检测器便会「识别出书写过于一致的平均情况」。挑战就在于,有时候有时人类的写作可能确实看起来处于平均水平。 在经济学、数学和实验室报告中,学生倾向于遵循固定的写作风格,这意味着他们更有可能被误认为是AI写作。 这可能就是为什么Turnitin错误地标记了Goetz的论文,因为它的内容涉及到经济学。 Wang表示,Turnitin努力调整其系统,在标记某个句子为AI生成之前需要更高的置信度,以便在这方面犯错。 并称,自己家的软件已经有了很大的进展。「我首次在1月下旬测试Goetz的论文时,该软件识别出其中大约50%是AI生成的。Turnitin在3月下旬再次通过其系统运行我的样本,那时只标记了Goetz论文中的8%为AI生成的。」 Turnitin的检测器也面临其他重要的技术限制。...
🔥3月27日大事件!揭秘这一改变世界的秘密…
研博论文

🔥3月27日大事件!揭秘这一改变世界的秘密…

On March 27th, a comprehensive analysis was presented discussing the significance of renewable energy transition in addressing climate change. The study emphasized the urgent need for transitioning from fossil fuels to solar, wind, and hydro power sources, outlining their environmental benefits and economic viability as a...
ChatGPT开启新纪元?理解它带来的伦理挑战与开放性冲击
本科论文

ChatGPT开启新纪元?理解它带来的伦理挑战与开放性冲击

随着ChatGPT的崛起,人们面对人工智能带来的伦理和社会挑战。文章探讨了技术颠覆性创新如何促使我们重新审视人工智能的潜在风险和价值问题。作者指出ChatGPT通过深度学习和RLHF展示了强大的自然语言理解和生成能力,突破了传统对智能与人工智能的认知,并质疑了某些理论预期。然而,这也暴露出理论思维与工程实践之间的认知差距,引发了关于通用人工智能标准和测试方法的讨论。本文旨在促使人们对人工智能进行全面而深入的理解,以应对这一领域带来的开放性挑战。
ChatGPT能否重塑家教?未来教育的私人导师?
研博论文

ChatGPT能否重塑家教?未来教育的私人导师?

这篇文章讨论了计算机辅助教学的发展历程,从哲学教授苏普斯1966年的预测开始,通过介绍ChatGPT这类人工智能聊天机器人的进步,指出其在收集大量数据和提供免费教育的可能性。虽然当前的ChatGPT无法像苏普斯设想的那样专注于特定任务或提供个性化辅导,但它展示了技术如何推动教育的进步。早期系统如PLATO因其高昂成本未能普及,而卡内基梅隆大学研发的更先进软件虽有潜力但并未广泛应用。随着宽带网络、计算机技术和社交网络的发展,人工智能聊天机器人如今具备了撰写论文、解答问题和个性化指导的能力,距离苏普斯的目标越来越近。然而,与早期系统相比,ChatGPT的优势在于其复杂对话能力和潜在的个性化辅导功能。
「Attention」革命,OpenAI能否颠覆互联网游戏?
期刊论文

「Attention」革命,OpenAI能否颠覆互联网游戏?

这篇文章探讨了OpenAI作为潜在科技领导者的能力,通过OpenAI的GPT-4等技术挑战Google和Meta的地位。大厂们争相在AI领域抢占高地是因为注意力经济的重要性,正如论文'Attention is All You Need'所揭示的Transformer架构能通过注意力机制简化任务。作者认为,OpenAI自成立以来虽经历不确定性,但ChatGPT的成功使其展现出强大的商业模式潜力,有可能建立一个行动引擎成为超级聚合器,利用注意力驱动互联网成功。
「百炼智汇ChatGPT,B2B营销新引擎」
研博论文

「百炼智汇ChatGPT,B2B营销新引擎」

百炼智能,一家专注于B2B智能营销的公司,自创立以来便以AI科技引领行业,通过结合大模型技术和行业模型,在ChatGPT热度高涨时快速将其应用于实际业务场景,推出整合ChatGPT能力的营销工具,获得良好反馈。创始人姚从磊博士强调,公司在技术积累上占据优势,拥有亿级企业知识库,并利用ChatGPT的强大交互和跨领域认知进行创新营销,同时面对AI落地挑战,百炼智能正积极探索商业应用。喂