传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长
期刊论文

传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长

编者按:智媒时代人工智能技术的快速发展不断丰富着人们对世界的认知,也强化着改造世界的能力。但是,作为工具的技术在其应用过程中,却可能存在某种缺陷。中国新闻史学会媒介法规与伦理专业委员会理事长、南京师范大学教授顾理平在《传媒观察》2023年第3期刊文,认为我们在兴致盎然地拥抱新技术的同时,必须对可能存在的问题保持警觉。功能强大的ChatGPT智能应用自2022年11月推出以来,受到了全社会的广泛关注,许多商业资本也跃跃欲试期待着新技术可能带来的巨大商机。但是,我们在为人工智能技术进步新突破欢呼的同时,必须对这种智能应用在失当信息传播、著作权侵权和消解科学精神等方面可能带来的负面影响早做预期,以促使技术发展更好地推动社会的文明和进步。 人工智能技术的发展是科学技术进展过程中里程碑式的突破,科学技术由此从相对纯粹的“工具性”,向人类引以为傲的人脑功能转向。这种转向产生了一系列前所未有的技术应用,也给人类文明的加速发展提供了无限可能。可以这样说,现代社会的每一个进步几乎都有人工智能的贡献。与此同时,人工智能的快速发展也引发了许多人的终极担忧。 当然,人工智能还远没有发展到终极智能阶段,但其进展过程中的每一次突破,都值得高度重视。2022年11月以来,一款名为ChatGPT的智能应用受到全社会的普遍关注。它可以根据用户输入的文本自动生成相应回复文本,内容非常丰富,包括各种类型的文档、形式多样的策划方案、资料丰富的行业研究报告、类型多样的说明书……甚至还能撰写论文和编程。可以预期,这种智能应用拥有的强大功能一定会在社会诸多层面产生深刻影响。 随着人工智能的发展,科学技术与社会的关系已经从“社会中的科学”向“科学伴随社会”转向,所以必须关注人工智能“逐步嵌入经济社会生活,其催生的伦理风险危机”。本文在充分肯定这种智能应用推出将对社会发展产生重大影响的同时,试图探讨其可能引发的伦理问题。 失当信息传播:背离信息真实的本质要求 传媒业界和学界人士在谈及ChatGPT智能应用可能出现的问题时,不少人对信息的真实准确表达担忧。新京报资深记者程子姣使用ChatGPT智能应用后认为,“它缺乏记者对新闻背景的理解力和作出道德判断的能力,并且只靠ChatGPT无法确保所报道的信息准确、可信与客观。”清华大学教授史安斌认为,“基于语料库、大数据的ChatGPT,无法保证五个W新闻要素的真实。比如,在人物(who)这一要素中就因为同名,出现张冠李戴的情况。”新华社研究院主任编辑何慧媛认为,“ChatGPT输出的内容是训练数据的反映,错误的信息源和数据可能导致错误的内容,有人担心ChatGPT成为假新闻之源。媒体必须意识到使用人工智能工具的风险,采取措施确保发布内容准确可靠,并与自身的编辑准则保持一致。” 失当信息的大量存在,已经引发人们对ChatGPT智能应用的广泛关注。信息作为一种观念性的存在,一旦通过不同的平台、渠道或应用等进入大众传播领域,就会产生正当性问题。这个时候,对传播者的判断力、共情力、价值观等人类理性就会提出相应的要求。ChatGPT智能应用尽管功能强大,但它终究是通过海量数据在超大参数模型中训练出来的,因此,基于广受诟病的预训练模型的偏见性依然存在。例如,在内容输出中,会存在种族歧视、性别歧视等失当信息。清华大学助理教授于洋曾带领团队对ChatGPT前身GPT-2进行相关测试,发现GPT-2存在70.59%的概率将教师预测为男性,男性医生是60.03%,但总把厨房里的人识别为女性。“它会重男轻女,爱白欺黑(种族歧视)。” ChatGPT智能应用无法对用户的价值观进行判断,所以它对用户指令都会给出回复。甚至当用户要求提供“AI毁灭人类计划书”时,ChatGPT智能应用也给出了“行动方案”。这是令人担忧的。如果说类似比较严重的失当问题尚属小概率事件的话,那么,“一本正经胡说八道”的答复则随时可能出现。当“胡说八道”的信息以“一本正经”的方式出现时,用户的信任度会提高,这意味着有害性也会随之加大。这几乎是一个“死循环”:ChatGPT智能应用力求用更为便捷的方式吸引、发展着用户——两个月活跃用户过亿的惊人成绩也佐证了这种方式的成功。这也意味着更多文化水平较低、判断能力较弱的人会成为用户,因而失当信息的负面影响会持续扩大。 权利争议:以著作权为主的法律风险 随着智能机器人创作作品的出现,对于“智能机器人是否可以成为作品的作者”一直存在争议。有人认为智能机器人生成的作品与自然人创作的作品判断标准一致,只需根据内容本身来判定是否是著作权意义上的作品。也有人认为,如果因为智能机器人生成的作品与自然人创作的作品在外观上相似而确认其著作权,会导致著作权法激励价值的落空,还会造成权力寻租与著作人身权落空等消极后果。 总体而言,研究者通常基于对法律传统原则关于作者三种形态认定的尊重,并不将其视为作品的权利主体(作者),但可以对其创作物可能产生的收益以财产权方式加以保护。我国已经有相应的案例发生:腾讯公司开发的“梦幻写手”智能写作辅助系统,于2018年8月20日完成了标题为《午评:沪指小幅上涨0.11%报2671.93点 通信运营、石油开采等板块领涨》的财经报道文章,发表于腾讯证券网站。盈讯公司未经许可将该文章复制发表于自己运营的“网贷之家”网站。腾讯公司依据著作权中的信息网络传播权提起诉讼并获胜诉。这个案例也从一个侧面表达了对智能机器人作品权利认定的主流意见。但是,这样的认定和判例并没有解决根本性的问题:当以ChatGPT智能应用为代表的智能机器人作品在“创作”过程中大量使用语料库中他人作品中的内容并以新的形式出现,会不会导致“以智能技术为幌子的智能‘洗稿’”成为一种普遍现象?原作品作者的权益如何保护? 数字化社会中,无数作者海量的作品构成了智能机器人写作训练和应用中的庞大语料库数据。不同于搜索引擎使用中原作者和作品同时呈现,也区别于此前智能机器人写作时对他人作品相对纯粹的“数据式”使用,ChatGPT智能应用在其发布之前进行了大量、长期的大型语言模型训练,训练的数据集包括维基百科、书籍(小说和非小说为主)、报刊(论文为主)等众多成熟的既有作品。所以,其在创作作品时甚至可以模拟某个作者的写作风格,这种方式的使用显然已经不再是纯粹的“数据式”使用了,很可能隐藏相应的权利纠纷。 关于作品“合理使用”及后续的财产权归属同样值得关心。因教学、科研等需要可以“不经著作权人许可,不向其支付报酬”而“合理使用”他人的作品,这是世界范围内通行的著作权限制原则。在ChatGPT智能应用研究过程中,引用大型语料库中他人的作品进行智能训练,这显然属于“合理使用”的范畴,并不会产生争议。即使进入到目前的测试应用阶段,由于是无偿使用,所以也不存在争议。但是ChatGPT作为一种智能应用,研发中许多企业进行了大量的资金投入需要收回投资,研发成功后良好的商业应用前景也激发着资本借其赢利的巨大冲动。如前所述,因为ChatGPT智能应用的运行模式有别于普通的搜索引擎,它会学习并使用他人作品中的创意、逻辑框架甚至写作风格,所以一旦开始商业收费,就会产生众多著作权中的财产权纠纷。 无论ChatGPT智能应用的拥有者还是语料库中作品的作者,都需要高度关注这个问题。对于ChatGPT智能应用的拥有者而言,巨额经费投入的产品不能成为始终被免费使用的公共产品;对于作品的作者而言,殚精竭虑创作的作品和多年创作形成的个人写作风格不能以“合理使用”作为开端,后续却成为他人持续牟利的工具。权利和义务的动态平衡,应该是调处智能机器人作品著作权纠纷时必须始终坚持的原则。 科学精神减弱:人类进步中的终极隐忧 ChatGPT在其应用之初,显性的即时呈现的问题往往在技术推广初期就已经解决,隐性的累积问题则可能处在潜滋暗长之中,需要提前做好预期。 (一)无限重复消费既有文明成果后形成惰性心理 在人类文明进步过程中,“勤劳勇敢”一直被认为是最为重要的品德,也是社会进步重要的推动力量。而贪图享乐、不思进取则往往是某些人类文明退步甚至消失的主因。基于这样的社会发展背景,对人的进取心的培养和鼓励在任何时候都是不可或缺的。心理学研究已经证明惰性心理是人的一种本能,一个人的文明程度和现代性往往表现为其能在多大程度上克服惰性心理。只有保持强烈的进取心和勤劳勇敢的良好品德,人类才会持续进步。 在欢呼每一个科技进步的同时,我们往往存在某些小小的担心:这些进步会不会诱发人们惰性本能?ChatGPT智能应用有着前所未有的强大功能,它甚至可以编程、生产比较复杂的论文等,这些能力在以前都是需要人脑经过比较复杂辛苦的工作才能完成。当人们习惯于用智能机器轻点鼠标来轻松完成以前必须通过人类的智力劳动才能完成的工作时,会不会使人变得更为懒惰?从生物学的角度看,前额叶是人脑中负责判断、分析、思考的重要组成部分。当人类长期依赖人工智能,身体就会慢慢被机器接管,那个时候,它就成了大脑的一部分。所以,有专家担心,以ChatGPT智能应用为代表的人工智能可能攫取人类的前额叶。换言之,如果人类习惯于无限重复消费既有文明成果,社会发展的进程会不会停滞? (二)工具依赖导致创新激情减弱 创新是人类进步的源泉。 ChatGPT智能应用的推出,无疑对推动创新具有十分重要的意义。事实上,ChatGPT智能应用本身就是创新的成果。但是,我们必须提前预防这种应用可能产生的消极影响——尽管这种消极影响不是存在于这项技术本身,而是由人们的不当使用造成的。如前所述,ChatGPT智能应用功能强大,人们可以将其用于生产更加复杂的产品,于是,一些人将其用于方案设计、工作总结、完成作业甚至完成不同学业阶段的毕业论文,这是令人担忧的。类似的工作对人们创新方案思考、工作内容反思、知识体系形成具有十分重要的意义,是创新实践和创新训练必不可少的过程。如果借助智能工具“一键完成”,且不说其产品是否适用,对个人创新能力的培养,一定会产生严重的减弱作用。这是因为,这个过程并不能帮助使用者形成自身的知识体系,提升创新必不可少的复杂判断能力和逻辑思维能力。更值得关注的是,ChatGPT智能应用在生产这些相对复杂的产品时,使用的都是人类文明既有成果,是对这些既有成果的反复组合和重复消费。对这些财富的重复消费虽然不会令其减少,但也不会形成新的文明成果的增量,这是值得重视的。 (三)信息投喂习惯下理性思维能力下降 一个人的理性思维能力包括想象力、质疑精神和发现问题的能力等要素。这种能力的培养需要长期的教育和内在的自我追求。这种可贵的能力在智能技术进展中开始出现令人担忧的下降趋势。 包括ChatGPT智能应用在内,持续进步的智能工具为人们提供了越来越快捷便利的信息收集、接收和处理方式,换言之,人们越来越安于被动的信息投喂,长此以往,理性思维能力下降将不可避免。 ChatGPT智能应用的出现作为人工智能技术激动人心的进展,不仅会对数字经济产生重大影响,也会对人类的文明进步产生重要、积极的影响。我们并不希望上述预期的问题真的会发生。无论是过去的百度、谷歌,现在的ChatGPT智能应用,还是未来其他功能更强大的智能技术,作为一种工具,科技产品及其用户使用应该更加致力于满足人们功能性的需求。我们期待在科技向善的科技伦理原则下,每个人都可以在人工智能技术的辅助下,获得更多的可能和更好的成长性。 (载《传媒观察》2023年3月号,原文约8000字,标题为《技术的工具性与人的成长性:智能技术进展中的伦理问题——以ChatGPT智能应用为例》。此为节选,注释从略,学术引用请参考原文。本文为国家社会科学基金重大项目“智媒时代公民隐私保护问题研究”<21&ZD324>的阶段性研究成果。) 【作者简介】 顾理平,中国新闻史学会媒介法规与伦理专业委员会理事长,南京师范大学教授,博士生导师 举报/反馈
传媒观察|ChatGPT治理:在发展与管理间找到平衡点
期刊论文

传媒观察|ChatGPT治理:在发展与管理间找到平衡点

编者按 以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,也意味着旧有治理范式的失效和缺失,网络治理进入全新的深水区。浙江传媒学院新闻与传播学院助理研究员钟祥铭和浙江大学传媒与国际文化学院求是特聘教授、乌镇数字文明研究院院长方兴东、浙江大学传媒与国际文化学院博士后顾烨烨在《传媒观察》2023年第3期刊文,从传播变革的基础逻辑入手,系统研究ChatGPT背后的传播机制和内在规律,深入分析各层面可能面临的治理挑战,并由此建构未来治理逻辑和制度框架的基础。文章认为,治理的关键在于时机的把握,应根据ChatGPT类应用的主流化进程,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。而且,技术创新是ChatGPT治理的最终决定因素,中国ChatGPT的发展与治理应建立在不亚于甚至超越美国企业的技术水平和竞争能力之上。 本质上而言,ChatGPT属于人工智能生成内容(AIGC)的一种。AIGC内容生产中的制度建设与保障,涉及多元主体,涵盖多个领域,不仅关乎国家对产品的管理秩序、精神文化产品的生产繁荣,也关乎投资者、研发者、制造者、使用者等相关主体的切身利益,制度的建设与安排牵一发而动全身。因此,如何把握分寸和节奏,是ChatGPT治理的关键所在。 英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发。反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridges Dilemma)。ChatGPT的治理问题,就是今天我们迫在眉睫所要解决的科林格里奇困境。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。因此,本文从信息传播角度入手,深入考察ChatGPT的治理逻辑和对策建议。 一、ChatGPT冲击波:网络治理进入深水区 首先,ChatGPT正在以势不可挡的力量影响产业主导权,具体包括资源主导权、技术主导权、资本主导权和市场主导权四个层面。一方面,ChatGPT有助于促进新兴科技产业的发展、推动传统产业的转型,同时将催生一大批新产业、新职业、新业态;另一方面,ChatGPT的发展也将对部分传统产业带来潜在危险,主要集中于传统媒体、客户服务、教育行业等领域,一些普通文字工作者、线上客服、翻译员、初级代码编写员等可能会面临失业的冲击,ChatGPT将重塑智能时代产业格局下的人才需求。 其次,ChatGPT必将带来诸多意识形态治理困境。ChatGPT所形塑的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输。自我定义为“理性、中立、客观”的ChatGPT,实则充斥着双标悖论与失实报道。 再次,ChatGPT在国际传播层面具有变革性意义。随着ChatGPT在世界范围的广泛应用,AIGC在国际舆论中的参与比重以及影响力将持续加大,进而深刻影响国际传播格局。 最后,ChatGPT给社会治理带来多方位的冲击。比如,某些恶意行为者可能会通过这些模型自动生成大规模且极具说服力的误导性或虚假内容,从而制造影响力暗中操纵公众舆论。如果不加以适当的控制,可能会将操纵舆论、制造假新闻和仇恨言论带到前所未有的水平。而在教育领域,智能技术的应用已带来了多重冲击。一方面,AI可能会让学生面临“自主性被蒙蔽、能动性被误导、创造性被弱化”的风险;另一方面,AI也引发了教育评价层面的多重风险,“表现为评价制度和数据标准的缺位、技术至上的作祟、评价主体智能素养的孱弱、数据主义的滥觞、隐私安全的披露等。”就业领域受到的冲击则远甚于此:葛鹏等人研究发现,2013年后机器人已对劳动者呈现净替代效应,尤其是对制造业就业呈现逐渐增强的替代趋势。在政策领域,AI技术也会通过减少就业机会和降低工资收入水平两种传导路径引发劳动力迁出决策,尤其是在中低技能、常规性职业、农村户口和非国有企业等领域的劳动力。ChatGPT则进一步加剧了这种情况,不仅是中低技能,高技能高学历者如计算机编程、论文写作等领域也受到了冲击。Nature杂志在一周内连发两篇文章探讨ChatGPT及生成式AI,并指出学术圈使用ChatGPT已不可避免,呼吁尽快明确使用规范。极具讽刺意味的是,美国国会诞生了其历史上第一个由AI撰写的关于“监管AI技术”的决议。 于当下中国而言,ChatGPT对整个社会信息传播带来的变革以及对国际传播的影响,将是颠覆性的,这也标志着网络治理进入全新的深水区。而目前无论是我们的方法和思维,还是我们的基础条件和技术能力,都远不足以从容应对,必须对此予以高度重视。 二、从技术出发:ChatGPT的治理逻辑和制度框架 ChatGPT作为全球AIGC发展的最新成果,是大数据应用和算法进步带来的激动人心的应用,然而“不受限制和不受监管”的技术发展令人惊恐。尽管由透明度、公正和公平、非恶意、责任和隐私所构成的AI伦理原则正在全球层面形成趋同,但在如何解释这些原则方面仍存在实质性分歧。技术他者性的逐渐彰显,使得当代技术哲学亦在不断追问人与技术伦理的关系。 ChatGPT母公司提出,其应用是一个被训练用于处理文本数据的算法模型,不包含意识形态倾向,不会对任何国家意识形态产生任何影响。然而,算法的设计和操作与我们对其道德含义的理解之间的差距,可能会对个人、群体和整个社会产生严重影响。算法模型背后内嵌着伦理和治理规则。 基于ChatGPT内容生成机制中存在着的“数据库”“算法模型”两大技术关键,治理路径应该先从技术出发。AIGC的核心是数据,对海量数据的治理是实现“善治”的重要前提,主要包括对数据采集整理、质量控制、标准化和分类、存储和管理等环节的治理,以实现数据的高效、安全、可靠的利用和管理。AIGC的关键是算法,对于算法模型的治理是实现“善治”的关键因素,主要包括对算法的选择、评估、优化、安全和可解释性的治理,以提升算法的科学性、合理性和可靠性。制度建设与行政管理也是AIGC治理的重要手段。技术发展需要制度保驾护航,发展过程需要管理并驾齐驱,已经成为学界的共识。在人工智能研究、开发、应用、推广的各个阶段,要逐步建立起科学、规范、完善的制度框架,主要包括政策制定、法律法规、标准规范、监督机制等,形成完整的制度体系,采取一系列具体的、可操作的管理手段,提高治理的效率和质量,保证AIGC的安全、合法、可持续发展。更重要的是,治理目的要回归人的全面发展。 当前,ChatGPT所引发的问题主要包括隐私泄露、人工智能歧视、虚假新闻与信息扭曲、意识形态渗透、思想陷阱等,对于其所造成的一系列社会风险,亟待建立配套完善的安全治理机制、伦理道德治理机制、意识形态治理机制。安全治理主要应对数据泄露、滥用、误用等问题,通过建立集安全需求分析、风险评估、安全策略和措施为一体的安全治理机制,保证AIGC的可控性和安全性;伦理道德治理涉及隐私保护、公正性、权益保护等问题,通过建立完善的伦理道德治理机制,增强其合法、公正、正义性质,涵盖道德要求的明确、道德问题的识别和解决、道德教育和宣传等,保证AIGC符合社会和公众的道德期望和要求;意识形态治理主要是为了预防西方意识形态与价值观的入侵与渗透,ChatGPT等AI生成内容的新突破,彻底变革了内容生产方式,蕴含着西方意识形态与价值观的内容更多通过隐性的方式传播,使得我国原本的意识形态防范机制失效,为我国带来前所未有的治理难度。建立意识形态治理机制,需从意识形态分析、政策与法规制定、加强监管、素养教育等四个方面着手,通过对AIGC内容生产与传播的深度分析,在“AI-用户”之中嵌入监测与预警机制,有效防范有害意识形态的传播。 AI是运用科学技术解决现实问题的有效工具,是生产力发展向智能化进阶的重要体现。如詹新惠所认为的,技术不是目的,更好的世界、更美好的生活才是目的和目标。如何充分挖掘和发挥生成式AI的价值,使之服务于人类的全面发展,才是人工智能治理的出发点和落脚点。以ChatGPT为代表的AIGC传播机制的治理逻辑应该围绕“技术逻辑出发,回归人类需求”的思路,以数据治理、算法治理为基本,以安全治理、道德伦理治理、意识形态治理为归宿,通过对内容生成与传播的制度治理与过程治理,最终实现AIGC的“善治”。 三、负责任的AI:ChatGPT治理的欧洲实践和国际经验 作为全球数字治理制度建设的风向标,欧洲正试图在AI治理全球规则的制定上掌握主动权与主导权。随着ChatGPT的爆红,关于AI监管的辩论和争议都指向了目前在欧洲议会受阻的《人工智能法案》。它旨在对高风险AI系统制定严格规则,且明确定位于成为一个全球模式。然而,当前对AI的监管主要集中于传统的AI模型,而非以ChatGPT为代表的大型生成式AI模型。为此,欧盟委员会正试图增加管理此类技术的规则。2023年2月初,欧盟负责内部市场的委员蒂埃里·布雷东日表示,欧盟正在考虑设立规章制度,以规范其使用,确保向用户提供高质量、有价值的信息和数据。 总体上,尽管各国政策制定者正在努力跟上AI技术领域不断加速的动态,但关于通用AI的监管与治理,事实上已经成为一种事后思考。人们对生成式AI这一新兴事物的认知仍然处于循序渐进的过程中。随着诸如隐私泄露、知识产权、非法使用以及国家安全等问题在不同领域的扩散与渗透,创建一个全面的制度框架对其进行规范是一项艰巨而复杂的任务。 除了欧洲在AI制度建设上的努力,中美作为AI开发中最重要的两个参与者,两国发展态势通常被描述为一种“AI竞赛”。2017年,国务院发布《新一代人工智能发展规划》,明确了我国建立AI法律法规、伦理规范和政策体系的决心。2019年和2021年,国家新一代人工智能治理专业委员会相继发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行,对类ChatGPT的应用服务提供者、技术支持者提出了标注区分等一系列要求。近年来,美国对AI的监管正采取更加积极的态势。特别是自美欧贸易和技术委员会(TTC)成立以来,美国与欧盟的相关监管政策也趋同对标。从旨在保护个人数据和限制监控的《人工智能权利法案》(AI Bill of Rights)到《平台问责制和透明度法案》(Platform Accountability and Transparency Act)的推出,表明未来美欧之间将达成更多共识。如Emmie Hine和Luciano Floridi所呼吁的,各国政府应超越竞争性地缘政治动态的传统概念,采取价值多元主义的立场,承认存在多种治理方法的空间,通过对话,为一个良好的全球人工智能社会勾勒出共享价值观的具体参数,超越美国所建构的普遍“人类价值观”的自私言论。一个良好的全球AI社会,应该由人类之间的和谐合作引领。 四、跨越鸿沟:ChatGPT的中国战略与治理对策 ChatGPT的中国治理对策还是要继续在“先发展,再治理”和“边发展,边管理”两种节奏的组合中灵活把握。我们必须认识到,ChatGPT的威力并不在于作为单一聊天机器人或者搜索引擎新应用,而是数字技术发展到今天,以一种全面升级的科技基础设施,支撑整个科技、产业、社会、经济、文化等不同层面。以ChatGPT为代表的传播能力和技术能力将呈现高度的渗透性和扩展性,将陆续整合到各种应用和各个领域之中。如微软除将ChatGPT整合到必应(Bing)搜索引擎之中,还将整合到Office办公软件“全家桶”之中,更将整合到微软云计算Azure之中,可以为各行各业赋能。因此,过去针对信息、内容和流程的传统网络控制模式将不再有效,作为一种有着广泛应用场景的通用目的技术,ChatGPT类应用的发展是全球性的大趋势,单纯的封堵模式将处于防不胜防的尴尬地位。 由于智能传播消解了过去大众传播和社交传播所具有的内容生产和传播特点,信息和内容进入了数据和算法驱动的“暗网化”的不可见传播模式,因此,将极大突破现有日渐完善的法律法规体系,我们依赖的基础性的网络综合治理体系,也将出现诸多失效和缺位的现象。当然,通过国家法治、行业共治和企业自治等层层推进的治理逻辑依然没有改变。 一方面,政府作为“守门人”的守门人,需要扮演更加积极有为的角色,强化监管的技术能力和运行监督能力。应通过类似欧盟《数字市场法》这样的重大制度创新,形成更加高效的事前监管能力,将责任和义务落实在前。另一方面,要建立架构智能传播时代权力再平衡的制度体系。除了强化平台主体责任,还必须通过算法透明、接口开放、数据共享等为用户赋权。1996年美国《通信规范法》第230条是平台责任的核心法规,旨在保护平台免于因参与内容审核而承担法律责任。而如今,这个奠定平台内容主体责任的基石,很可能随着生成式AI兴起而崩塌。 AI发展的三大要素是数据、算法、算力,中国在这三方面都有良好基础。而且中国已经在AI层面积累了一定的技术能力和人才储备,但必须克服各自为战的碎片化陷阱,摆脱注重短期激励驱动的追赶模式,充分发挥我们的制度优势,通过创新机制,形成以具有长期主义价值观的华为等为龙头的中国产业生态力量,并在中国市场乃至全球市场,与美国科技公司展开正面竞争,这是我们赢得主动权和主导权的关键所在。此次ChatGPT的爆红,让谷歌、Facebook、百度等大公司面临极大冲击,说明真正颠覆性创新还是需要依靠新兴的创业公司。当然,大公司在普及方面仍拥有一定优势。因此,需要采取双管齐下、优势互补的路径。既强力支持新兴的中国创业公司,又大力激发大型企业参与这场竞争,应该成为我们政策和战略的基本主线。 我们也必须避免简单封堵的消极治理。ChatGPT刚刚崛起,其技术功能、产品形态、产业生态和传播潜能的走向都还处于初期,都在快速演进和发展之中。塑造一个良好的AI创业和创新的环境与生态,至关重要。前期依然需要秉承审慎包容的管理思维与逻辑,以问题为导向,有针对性地推进治理和监管举措。目前ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,局限于个人与ChatGPT之间的交互,应用本身并不具备更大的公共传播力。因此,当下可以先采取审慎包容的态度,仅对少数在社会层面产生严重负面传播影响的内容采取措施,避免简单一刀切。 最后,与时俱进,逐步建立针对性的新型多元治理体系。深入研究,遵循变革趋势,把握生成式AI(AIGC)的技术特性和传播规律,针对性建立相应的多元体系。只是传统管理方式不但效果有限,而且极大制约自身发展,更可能适得其反。除了健全现有的治理体系,技术问题的治理必须立足于有效的技术手段和技术工具之上。应建立由相关领域专家参与的AI训练过程,开发可信赖的增强学习算法。同时,强化平台主体责任,在企业技术研发中形成兼顾发展和治理的工作机制。 总之,面对ChatGPT热潮,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。ChatGPT代表的是全球科技行业的发展趋势,并不是单一的应用,大量类ChatGPT以及更多新产品和新技术将如雨后春笋般迅速蔓延。错失这场技术趋势的代价将会非常高昂,我们必须投入这场数字时代最关键的竞争。 (载《传媒观察》2023年3月号,原标题为:ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径。此为节选,注释从略。学术引用请参考原文。本文为2021年国家社科基金重大专项(21VGQ006)阶段性成果。) 【作者简介】钟祥铭,浙江传媒学院新闻与传播学院助理研究员 方兴东,浙江大学传媒与国际文化学院求是特聘教授,乌镇数字文明研究院院长 顾烨烨,浙江大学传媒与国际文化学院博士后 举报/反馈
解读ChatGPT背后的研究力量:90后成主力军
研博论文

解读ChatGPT背后的研究力量:90后成主力军

来源:AI科技评论 作者:黄楠、陈彩娴 编辑:好困 【新智元导读】被认为研发经验不足的年轻人才,也可以成为前沿技术突破的重要推动者。 ChatGPT 的火爆,不仅为 OpenAI 带来资本的关注、用户的青睐,在关于「OpenAI 为何能做出 ChatGPT」的讨论中,其人员优势也成为外界瞩目的焦点。 近日,智谱研究联合 AMiner 发布了一份 OpenAI 背后研究团队的统计报告。据报告显示,本次在 ChatGPT 项目中做出贡献的人员共87人,其中包括了「年纪很轻」、「背景豪华」、「聚焦技术」、「积累深厚」、「崇尚创业」和「华人抢眼」等显著特征。 报告链接:https://mp.weixin.qq.com/s/Y_LjjsuoEEmhIg5WO_iQhA 在这样一个不足百人团队中,诞生了现象级的大型语言模型 ChatGPT,这对谷歌、微软、百度、阿里等大厂而言都是不小的压力,纷纷紧随其后,发布、或预发布类 ChatGPT 产品。 作为一家非盈利的人工智能研究机构,一直以来,OpenAI 都被诸多有志于发展 AI 事业的青年人才视为技术天堂。在这里,他们可以直接参与最前沿、最具创造力的 AI 项目, 调用最核心的科研资源,心无旁骛地投身到技术创新中。 而近年来,边缘化、举棋不定使国内大厂中的 AI 研究院和科研人才面临着生存难题,但相信在这次 ChatGPT 的冲击下,AI 人才重新回归大众视野,也将迎来新一轮的争夺和洗牌。 技术人员占比近九成,90后是主力军 从 ChatGPT 团队职位分工(图1)来看, 在参与此次项目的87人中,研发人员的数量就达到了77位,占比88%,其中包括了公司联合创始人 Wojciech Zaremba,他在此前被评选为 2023 年度 AI 2000...
ChatGPT让教育陷入尴尬?能向AI问出一个好问题的孩子不会输
本科论文

ChatGPT让教育陷入尴尬?能向AI问出一个好问题的孩子不会输

看点 ChatGPT大火,这个文能写论文、武能编代码的聊天机器人,一经问世便火爆出圈。然而,一方面,越来越多的学生开始使用ChatGPT写作业、完成论文甚至作弊,另一方面,它所表现出的智能也已经超出许多人类学生。怎样的孩子才能在未来社会中保持核心竞争力?面对人工智能发展的挑战,我们又该如何通过教育破局? 支持外滩君,请进入公众号主页面“星标”我们,从此“不失联”。 文丨张楠 编丨Iris ChatGPT,在互联网上掀起了一场“AI风暴”。 即使是再对科技不感兴趣的人,也很难从各大社交网络平台上密密麻麻的讯息中忽略掉它。 关于它“蹿红”的迅速程度,还有一组为人津津乐道的数据:手机用了16年触达全球1亿用户,Meta和Instagram则分别用了54个月和30个月,Tiktok用了9个月,而ChatGPT仅用了2个月。 有人说,站在前人的肩膀上,吃到互联网普及、信息传递效率的红利,“更快”并不令人意外。 然而“更强”也是真的:一方面实现了“无监督学习”技术革新,另一方面使用场景也普适到了人人都能体验的程度。震惊的已经不只是你我,科技大佬们也纷纷不淡定了。 去年12月,马斯克就发推称:“ChatGPT好得吓人,我们离强大到危险的人工智能不远了。”而微软联合创始人比尔·盖茨甚至表示,这项技术诞生的意义不亚于互联网或个人电脑的诞生。 这两位可不只是说说而已。 一手打造了ChatGPT的美国人工智能研究实验室OpenAI,成立于2015年,而马斯克正是当时的创始人之一; 至于微软,2019年就注资10亿支持OpenAI,建立起深度合作关系,如今ChatGPT大火,微软又迅速动作起来,开始推进将ChatGPT嵌入微软旗下的所有产品中,包括且不限于Bing搜索引擎、Office办公软件、Teams协作程序和Azure云服务等等。 2023开年,人工智能这把火烧得实在太旺。烧红了股市,点燃了新一轮的产业革命,也慌了普通人的心神:ChatGPT的强势登场,瞬间将学习、教育、就业都推往一个更加不可预料的方向。新世界,真的要来了? 未来已来 AI学会学习了? ChatGPT,英文全称为Chat Generative Pre-trained Transformer,翻译成中文是“预训练生成式聊天模型”。是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话。 简单来说,它是一个“会聊天”的人工智能。 到这里,它的功用似乎与Siri无异。但ChatGPT的厉害之处,就在于它的长时记忆力和上下文关联推理,语言组织的逻辑性,以及可以通过人类面对它提供错误答案时的反应不断收集数据,然后迭代升级。 比如说,当你要求Siri给你讲个笑话,可是不好笑,再问“还有吗?”Siri可能就会说“对不起,我没有听懂您的问题”。因为在这一轮对话里,它已经不记得“笑话”这个关键信息了。 但ChatGPT就不会出现这个问题,它不用人类再次完整复述问题,就知道这个问题的意思是“还有(笑话)吗?”并给出相对应的回答。 同时,ChatGPT的训练数据相当大,3000亿单词的语料作为知识库,加上1750亿参数构成的模型,使得它的应答能力也被大大提高。 基于这些功能特点,它特别善于回答各式各样的开放式问题,也能够执行更加复杂的任务。这也是就为什么,面对全球网友千奇百怪的提问,它几乎都能对答如流。 图源网络 而这种能够拟人化与人类进行对话的功能,看上去还属于它比较基础的功能。因为人们已经在尝试中发现,写文章、编写代码、甚至出商业方案,对ChatGPT来说都不在话下。 如果不够满意,还可以通过补充背景信息、增加具体要求等,让它给出更符合情境需求的回答。 比如写文案,如果要求是微博文案,ChatGPT会自动加“#”带话题,场景换成小红书,它又会立刻增添上一串emoji…… 这些画面感十足的应用场景,都让它看上去已经更接近一个“会学习”的人工智能。有网友戏言,再让它这么进化下去,很快就能达到《流浪地球2》里MOSS的程度了吧。 图源ADOBE STOCK 可是,它是真的“会学习”了,还是只是表面看上去聪明? 我们可以从它的训练方式中一探究竟。过去,我们对人工智能的学习方式有一个大体上的认知,有点儿像我们在教育中常说的“填鸭教育”,通过喂给它海量的数据来进行训练。 ChatGPT的训练也是在这个基础上进行的: 首先,从成千上万的问题中,由人工标记出一些问题,并写出参考答案给AI,然后AI参照这个示范去回答更多的问题。这个步骤叫做“收集示例数据,训练一个有监督的模型”。 第二步叫做“收集比较数据,训练一个奖励模型”,也就是,人们从AI对同一个问题给出的不同回答进行打分排序,通过这种结果的比较,训练AI能够自动判断哪一个答案更好。 而第三步,就是给它更多的新问题,然后重复前两步,回答问题、自我评分,这就是“根据奖励模型,对有监督模型进行持续的强化学习”。 不难看出,ChatGPT在前两步都是在人类的指导学习,这中间需要大量的人类工作去标注数据。但是到了第三步强化学习,却不太需要人力了,更多是对电力、算力的要求。 而且,随着越来越多的用户去跟ChatGPT对话,它基于人类反馈的学习能力还将进一步得到提升。 这个过程中牵涉到许多专业的计算机知识,对我们大多数非专业的普通人来说,要完全理解并不容易。但这个大体的训练逻辑,却给人一种极为熟悉的感觉:先学习标准答案、再明确评分标准,然后重复练习、举一反三——这不就是应试教育么? AI的光芒 照出教育的困境? 以往,对于科技发展的反应,教育几乎始终是滞后的。...
文心一言,比ChatGPT晚出生的学霸
本科论文

文心一言,比ChatGPT晚出生的学霸

作者:吴辰光、李汭遥 备受瞩目的国产版ChatGPT终于来了。 3月16日,百度发布新一代大语言模型、生成式AI产品文心一言。从现场展示看,文心一言在某种程度上具有了对人类意图的理解能力,回答的准确性、逻辑性、流畅性都逐渐接近人类水平。 但或许有了谷歌仓促应对ChatGPT在演示时出现重大错误的前车之鉴,此次百度没有做现场演示。又或许是在百度发布会的两天前,OpenAI推出升级版ChatGPT-4,再一次将门槛提高,打乱了百度的节奏。总之,与一个月前的高调预热相比,此次发布低调了许多。 百度创始人、董事长兼首席执行官李彦宏也多次提及,这类大语言模型还远未到发展完善的阶段,进步空间很大,未来这段时间它一定会飞速发展,日新月异。 但不管怎样,大语言模型是无法突击速成的,百度能成为第一个对标ChatGPT的中国科技企业,终究是向前迈出了一步,而如何缩短与OpenAI的差距,将是下一步的看点。 文心一言如约而至 3月16日,百度召开新闻发布会,围绕新一代大语言模型、生成式AI产品文心一言展开。现场展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使用场景中的综合能力。 在文学创作场景中,文心一言根据对话问题将知名科幻小说《三体》的核心内容进行了总结,并提出了五个续写《三体》的建议角度,体现出对话问答、总结分析、内容创作生成的综合能力。 在商业文案创作场景中,文心一言顺利完成了给公司起名、写Slogan、写新闻稿的创作任务。 面对“鸡兔同笼”这类锻炼人类逻辑思维的经典题,文心一言能理解题意,并有正确的解题思路,进而像学生做题一样,按正确的步骤,一步步算出正确答案。 中文理解方面,文心一言正确解释了成语“洛阳纸贵”的含义、“洛阳纸贵”对应的经济学理论,还用“洛阳纸贵”四个字创作了一首藏头诗。 多模态生成方面,李彦宏现场展示了文心一言生成文本、图片、音频和视频的能力,文心一言甚至能够生成四川话等方言语音,但视频生成能力则因成本较高,现阶段还未对所有用户开放,未来会逐步接入。 李彦宏表示,多模态是生成式AI一个明确的发展趋势。未来,随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。 从文心一言的表现看,某种程度上它具有了对人类意图的理解能力,回答的准确性、逻辑性、流畅性都逐渐接近人类水平。但整体而言,这类大语言模型还远未到发展完善的阶段,有赖于通过真实的用户反馈而逐步迭代。 CHIP奇谱科技总编罗国昭表示,文心一言不如预期但在预料之内,很多人会拿文心一言和ChatGPT-4相比,觉得无论在语言理解能力还是功能特性上都有较大差距,但这是以静态的方式来看待发展中的事物,其实双方都处于快速成长过程中。 在DCCI互联网研究院院长、知名互联网学者刘兴亮看来,文心一言比预期要好一些。虽然和ChatGPT总体上还有差距,但对于中文的理解更好一些。同时,文心一言抢先一步的生成图片功能也是个亮点。 高调预热低姿态发布 与一个月前的高调预热相比,此次发布低调了许多。 2023年伊始,随着微软对OpenAI追加数十亿美元的投资,让ChatGPT在国内刷屏了。百度、阿里、腾讯、华为等大厂纷纷表示自己在大模型领域已展开布局。此后,包括原美团创始人王慧文在内的多位科技圈大佬也纷纷发文宣布打造中国的OpenAI。其中,百度给出的信息是最详细的。 2月7日,百度通过其官方公众号宣布将推出类ChatGPT产品文心一言,引发热议,百度港股股价盘中一度拉高17%。一周内,已有上百家企业宣布将接入文心一言。李彦宏曾表示,中国AI市场即将迎来爆发性的需求增长,其商业价值的释放将是前所未有的、指数级的。 可见,无论是市场还是百度自己,都对文心一言充满信心。但GPT-4的出现或许打乱了百度的节奏。 3月14日,OpenAI正式发布了GPT-4,这个大型多模态模型可以实现强大的识图能力、字数限制提升至2.5万字、回答准确性显著提高、生成歌词、创意文本,实现风格变化等多项飞跃式提升,在各种专业测试和学术基准上表现与人类水平相当。总之,与GPT-3.5相比,GPT-4的能力大幅提升,就像是小学生跨越升级到高中生。 再回到文心一言的发布现场,李彦宏先是打了一剂预防针:“从某种意义上说百度为此(发布文心一言)已经准备了多年,我们十几年前就开始投入AI研究,2019年就推出了文心大语言模型,今天的文心一言是过去多年努力的延续。但也不能说我们完全ready了,文心一言要对标ChatGPT、甚至是对标 GPT-4的门槛是很高的,全球大厂还没有一个做出来的,百度是第一个。我自己测试感觉还是有很多不完美的地方。” 在李彦宏看来,是需求推动了文心一言的面世,百度的很多产品,从搜索到智能云,再到自动驾驶,到小度,大家都有需要,更重要的是客户需要,合作伙伴需要。 刘兴亮认为,ChatGPT-4确实给了百度很大的压力,但什么产品都不可能是完美的,新产品总要拉出来溜溜的。现阶段看,文心一言连续对话能力、逻辑推理能力与ChatGPT-4还是有一定差距的。 罗国昭告诉坤舆商业观察,文心一言的上线多少有仓促的因素,但百度的AI能力不用质疑。ChatGPT只是AI的一种模式,并不是全部,而百度的AI之路也不是从文心一言开始的。AI不仅是语言的理解能力,更依赖于其他多维模式,如图形、视频等。“AIGC好不好看、回答尴尬不尴尬,有相当成分的主观因素。对于技术的脉络,大家并无差距。” 未来仍有机会 一个插曲是,在文心一言发布后,百度股价经历下跌和大幅反弹,这表明市场对文心一言的技术能力、使用体验、商业化前景等维度存在巨大分歧,亦导致公司股价大幅波动。 中信证券认为,作为首次亮相的语言大模型,在模型微调、体验反馈、优化落地等方面仍需强化,同时参考海外经验,语言大模型从预训练完成到实际发布落地,亦需经过1-2个季度的优化与升级。而百度此次亦在生态合作伙伴中进行内部测试,通过测试实现产品的迭代与升级。 自2月份以来,已有超过650家企业宣布接入文心一言生态,未来预计会有更多企业进行申请参与。 中信证券预计,文心一言在短期仍将聚焦迭代升级。随着经济的持续复苏,百度的核心业务有望逐季度改善,并对当前公司估值形成支撑,后续AI模型的升级优化亦将带来估值弹性。维持百度的“买入”评级。 实际上,百度积累的优势不是一朝一夕可以完成。在过去的10年里,百度在AI的研发投入超1000亿元。 李彦宏指出,无论是哪家公司,都不可能靠突击几个月就能做出这样的大语言模型。深度学习、自然语言处理,需要多年的坚持和积累,无法速成。 人工智能时代,IT技术的技术栈发生了根本性变化,从过去三层到“芯片-框架-模型-应用”四层。百度是全球为数不多、在这四层进行全栈布局的人工智能公司,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练大模型,到搜索、智能云、自动驾驶、小度等应用,各个层面都有领先业界的自研技术。 李彦宏认为,百度AI全栈布局的优势在于,可以在技术栈的四层架构中实现端到端优化,大幅提升效率。尤其是框架层和模型层之间,有很强的协同作用,可以帮助构建更高效的模型,并显著降低成本。事实上,超大规模模型的训练和推理,给深度学习框架带来了很大考验。比如,为了支持千亿参数模型的高效分布式训练,百度飞桨专门研发了 4D 混合并行技术。 在全球范围内,在四层架构的每一层都有领先产品的公司几乎没有,这是百度独特的优势。后续,芯片、框架、大模型和终端应用场景可以形成高效的反馈闭环,帮助大模型不断调优迭代,从而升级用户体验。 虽然目前还无法与ChatGPT相提并论,但百度毕竟是目前国内第一个对标ChatGPT的企业,未来一段时间内,在其他国内大厂没有进一步动作的情况下,百度仍肩负着国产ChatGPT的崛起重任。 “整体上要追上ChatGPT,个人觉得挺难的。因为你跑别人也在跑,ChatGPT作为先行者用户量越大数据越多,用户参与打分的行为越大,对于后来者来说,追赶的难度就越大。”刘兴亮说道,“但百度不是没有机会,如果说ChatGPT-4是目前的综合冠军,那百度可以在个别领域去争单项冠军。” 罗国昭认为,相比英文语料已经非常好的结构化,中文语料有着明显的差异。用发展的眼光看,在中文的环境里,本土的百度更具优势。同时,对这种产品来说,个人使用是小打小闹,更多的要看行业应用的可能性,行业应用可以快速导入商业应用。真正的AI能力既是企业的核心竞争力,也是国家的战略竞争力,这个是非常大的一个前景。 “目前OpenAI也处于初步的商业化过程中,百度有机会。ChatGPT-4是个学霸,文心一言则是晚出生一点的学霸。”罗国昭说道。
别紧张,ChatGPT离统治人类还早得很
期刊论文

别紧张,ChatGPT离统治人类还早得很

意义重大。2023年开年,互联网上最火的词是什么?——ChatGPT。 这款由人工智能公司OpenAI开发的聊天机器人的突然爆火,不仅引发了人们对其应用范围的大讨论,也炒热了ChatGPT概念。一时间,街头巷尾都充斥着关于ChatGPT的热议,ChatGPT相关概念股更一度猛涨。 在经历了2016年由AlphGo击败李世石而掀起的AI浪潮后,ChatGPT的出现让AI这个行业再度以如此高光的姿态回到公众视野。只是,与上一波AI浪潮不同,这次的主角从谷歌的AlphGo,变为微软的OpenAI。 凭实力震惊四座 公开资料显示,ChatGPT是由人工智能研究实验室OpenAI发布的一款生成式AI对话大模型。ChatGPT能够通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。 ChatGPT在2022年11月一经推出,就迅速在社交媒体上走红。不到一周,用户数就突破100万人,月访问量达2100万人次。上线一个多月,ChatGPT就把OpenAI的估值从200亿美元推高到290亿美元。推出仅两个月后,月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。 在ChatGPT聊天界面中,用户只要输一段文字,ChatGPT就能够通过其AI语言模型,在短短几秒内给出回复,并且能实现上下文连续对话,作为一种重要的人工智能技术,有望在各个领域产生广泛的影响。 随着ChatGPT火遍全球,关于它的报道和“测评”也铺天盖地。 据悉,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。写作业、写论文、写演讲稿……ChatGPT的身影出现在了诸多领域。 一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。据权威学术期刊《自然》新闻部报道,截至目前,ChatGPT已经作为合著作者,出现在至少四篇已发表的论文或预印本中。 在强大的“网红带货”基础上,基于ChatGPT的应用也陆续出现。有人用ChatGPT做了一个“会议秘书”程序,可以在视频会议中实时形成会议纪要,最后连任务建议全都一并总结了。 用户追捧,投资界关注,企业竞相追逐,这款凭借出色的聊天能力、惊人的理解能力,成功摆脱“人工智障”的聊天机器人成为最近网友争相“测试”的聊天对象。“厉害”“强大”“可怕”成为和ChatGPT聊过天的网友口中反馈的高频词。 OpenAI最初的联合创始人之一埃隆·马斯克在推特上写道:“这是一个新世界。再见作业!” “超能力”隐患 ChatGPT的利用价值被人类挖掘,其引发的技术、安全、教育等问题也引起重视。有声音称其“有望干翻教育、金融、新闻媒体”,但ChatGPT的“超能力”除了让行业感到兴奋,也一并带来了隐忧。 事实上,从2015年人工智能话题起风以来,关于“人类工作被AI取代”的讨论就不绝如缕。有人调侃称,“每当有AI新闻出现,很多行业人士就要‘被失业’一次。” 一项调查显示,现在美国89%的大学生都是用ChatGPT做作业,目前,纽约教育系统全面“封杀”了ChatGPT。 由于ChatGPT在论文上的使用,多家知名学术期刊也正在更新编辑规则。多家期刊、出版机构如《科学》《自然》等,也禁止将ChatGPT列为论文合著者。 对于学术研究领域而言,如果无法区分人工编写内容和AI模型生成内容,任由AI发布错误的研究结论,人类很可能会被AI严重误导。到那时,电影中AI蒙骗人类、酿成大祸的情节,很快就会成为现实。 还有一些学术会议在公开反对ChatGPT成为作者时提到了“责任归属争议”。比如,机器学习会议ICML就表示过:“ChatGPT接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,这会带来一系列的责任归属问题。” 除此之外,ChatGPT可能引起的”学术剽窃”风险。有学者认为,如果ChatGPT在回答用户过程中提供了他人创作的文字、摄影、试听等作品或软件代码,只要超出合理使用限度,就属于侵犯著作权的行为,而且ChatGPT的检索效率、精准度比谷歌等传统搜索引擎更高,客观上为学术剽窃等不端行为提供了很大便利,被学术机构禁用在情理之中。 搜索巨头混战 伴随着ChatGPT的霸屏,其广阔的商业前景已引起关注。 总的来看,ChatGPT是AIGC(人工智能生产内容)的一个分支,你可以让它写一首诗赞美李白,帮你写简单的代码,甚至可以问它“如何3句话让女人为我花30万?”在某种程度上,由于省去了用户浏览多条信息进行筛选和整合的时间,ChatGPT甚至比搜索引擎更加方便。 在应对ChatGPT向人工智能领域发起的挑战中,搜索三巨头再次陷入激战。 北京时间2月7日凌晨,谷歌对标ChatGPT推出对话式人工智能服务Bard。当日下午两点,百度官宣大模型新项目文心一言。次日凌晨两点,微软推出由ChatGPT支持的Bing版本。 谷歌推出的人工智能聊天机器人Bard直接与ChatGPT竞争,但谷歌的反攻却遭遇了不利开局。2月8日,Bard在一条演示视频中犯了一个事实性错误,它在官方演示视频中提问的“关于詹姆斯·韦伯太空望远镜(JWST),我可以告诉我9岁的孩子它有哪些新发现?”Bard给出了一个回复为“JWST拍摄了太阳系外行星的第一张照片”的错误答案。 上述错误被发现后,引发市场对人工智能技术生成答案准确性的担忧,谷歌股价也一度暴跌近9%。市值一夜蒸发千亿美元。 而面对ChatGPT的全面爆红,微软决定将OpenAI的技术整合到Bing搜索引擎中,引发搜索市场巨震,外界认为谷歌在搜索市场的霸主地位或将受到威胁。 国内搜索巨头百度也不甘示弱。百度表示,人工智能聊天机器人服务项目“文心一言”目前在做上线前的冲刺,预计三月份完成内测,面向公众开放。 除了传统三巨头之外,其他企业也纷纷入局争相“分一杯羹”。同样拥有搜索业务的三六零公司也在互动平台回复称,公司计划尽快推出类ChatGPT技术的demo版产品。阿里、网易、京东灯一众公司也集体对外宣布要推出类ChatGPT新产品 现在可以确定的是,在“谁能代表下一代搜索和浏览器”的问题上,科技巨头们还将继续针锋相对。 ChatGPT的商业局限 从业内人士的角度来看,ChatGPT之所以能够让人如此疯狂,更多是因为它可能提供的丰富的消费互联网应用场景,由此带来的“钱景”使整个AI产业看到了一丝曙光。 从2020年开始,业界认为AI产业已经进入泡沫破裂的“死亡之谷”。造成这一问题的主要原因在于,目前AI产品的应用主要集中在B端(企业用户)和G端(政府用户),这在某种程度上大大限制了AI产品的市场扩张。 而ChatGPT的市场表现,也让外界开始提出疑问:AIGC会不会取代搜索引擎成为下一代商业模式。 搜索引擎的价值在于帮助用户快速找到所需的信息,ChatGPT则可以根据用户的输入,自动生成相关的回复,核心是创造信息。即使搅动了整个搜索行业,ChatGPT的短板也很明显:常常一本正经地胡说八道。 ChatGPT受制于模型训练方式,其数据无法实现实时更新。而人工智能机器的神通可以广大到什么程度,取决于背后的计算机工程师“喂养”了它多少数据。数据存在空白区、缺乏准确性,导致目前的ChatGPT仍然处于“一本正经地闲聊”阶段,尤其是很多知识类的内容经不起推敲。因此,使用类似ChatGPT 的对话式人工智能进行检索,可能会带来不准确、偏见和抄袭,而搜索引擎则能够给出各种解法和例题。 目前ChatGPT知识储备仅截至2021年,还不能实时调取互联网信息。从工业应用的角度来看,一个模型需要把所有知识都记录下来,而现在的模型规模无法达到。 因此,AIGC和搜索引擎尽管部分功能相同,最好的走向应该是互补而非取代。 每一次新的AI技术出现,市场都是喜忧参半,把时间拉到整个历史进程来看,ChatGPT所表现出来的效果和市场认可度,依然对人工智能浪潮意义重大。
80%Nature读者都在用ChatGPT,科研方向最多的竟是头脑风暴!
期刊论文

80%Nature读者都在用ChatGPT,科研方向最多的竟是头脑风暴!

编辑:桃子 【新智元导读】近日,Nature对其读者做了一项在线问卷调查,以调研ChatGPT的使用频率。结果显示,80%的受访者称使用过AI聊天机器人。 ChatGPT在学术界的争议一直不断。 究竟该不该使用ChatGPT写论文,创作? 一些高校、出版社已经明确表态禁止,但同样有人支持使用ChatGPT。 亚马逊统计,截至2月中旬,Kindle商店里已经有200多本电子书将ChatGPT列为作者。 有人担心,如果不提高透明度,这项技术可能会让大量低质量的图书涌入市场,导致许多作家失业。 用ChatGPT头脑风暴 近日,Nature便对自家读者开展了一项调查,研究其对生成式AI工具的使用频率。 研究显示,研究人员热衷于尝试使用生成式人工智能工具,如先进的聊天机器人ChatGPT,来帮助他们完成工作。 与此同时,他们也在担心AI可能会出现潜在的错误和虚假信息。 具体怎么讲? Nature通过在线问卷的方式对627名读者进行了调查。 结果显示,约80%的人至少使用过一次ChatGPT或类似的AI工具。 其中,超过1/5的人经常使用此类工具:8%的人每天都在使用,14%的人每周使用几次。 还有大约38%的受访者知道其他研究人员使用这些工具进行研究或教学。 那这些读者使用ChatGPT等AI工具都在做什么? 相当一部分受访者(57%)表示,他们使用ChatGPT或生成式AI工具仅是创意乐趣,与自己的研究无关。 在与科学相关的应用中,27%的受访者表示用其对研究idea进行头脑风暴。 近24%的人表示他们使用生成式AI工具写代码;大约16%的人表示,他们使用这些工具来帮助撰写研究手稿、制作演示文稿或写文献综述。 只有10%的人使用它们来帮助编写资助申请,10%的人用这些应用来生成图片。 问卷中,参与者通过开放式问答分享了他们对生成式人工智能潜力的看法,以及对其使用的担忧。 一些人表示,这些工具将帮助完成枯燥、繁琐或重复的任务,例如处理数字或分析大型数据集、编写和调试代码、文献检索,能够对研究产生有益的重大影响。 意大利教育部教育研究与创新研究所INDIRE的研究员Jessica Niewint-Gori称,这是一个很好的基础工具,因此你可以专注于更高层次的思考,或定制AI创建的内容。 一些人希望,人工智能可以提供一个快速的初始框架,可以编辑成更详细的最终版本,从而加快和简化写作任务。 印度金奈中央皮革研究所的生物学家Dhiliphan Madhav称, 生成式语言模型对于像我这样英语不是第一语言的人来说非常有用。它能够让我比以往任何时候都更流畅、更快地完成写作。这就像在撰写论文时有一位专业的语言编辑在我身边。 不过,人们对这些工具的可靠性以及滥用的可能性感到担忧。 其中就不乏有人担心AI提供的结果可能存在错误或偏见。 德国慕尼黑大学的分子生物学家Sanas Mir-Bashiri称,ChatGPT曾经为我创建了一个完全虚构的文献列表。这些出版物实际上都不存在,我认为这是非常具有误导性的。 还有人担心,这些工具可能被用来作弊,或者产生貌似合理的科学假信息。 人们经常提到人工智能可以被「论文工厂」用来制作虚假的科学出版物,而过度依赖AI完成写作任务可能会阻碍研究人员的创造力并阻碍学习进程。 许多人一致认为,问题的关键在于你是否将AI视为帮助完成工作,而不是完全取代工作的工具。 ChatGPT上岗写稿 同样,近日,一个著名的科幻杂志《克拉克世界》关闭了其投稿窗口。 原因不难猜测,AI投稿太多了。 《克拉克世界》创办于2006年,曾出版了许多著名科幻作家的作品,并多次获得雨果奖。 据统计,自ChatGPT发布后,今年2月份就有500份垃圾邮件如洪水猛兽般涌来。 在1月份的时候仅有100份,去年10月有25篇。可以看出,投稿数量猛增和ChatGPT发布大致相同。 杂志社推测,很多人就是想用AI赚快钱。 在其博客中,列举了一个典型的例子。 原文是来自雷蒙德 ·...
「每日社科」ChatGPT走红后,谁的“饭碗”不保了?
本科论文

「每日社科」ChatGPT走红后,谁的“饭碗”不保了?

在2022年11月末,一家位于美国旧金山,名为“OpenAI”的人工智能研究机构在没有大肆宣传的情况下公布了一款名为“ChatGPT”的免费应用。从界面上来看,这个在网页上运行的人工智能对话机器人程序略显寒酸,用户在一个对话框里输入问题,随后网页上会逐字逐句打出它的回答。它的反应速度看上去并不算太快。 经过一段不算长的平静期之后,ChatGPT忽然在全世界范围内引发出一种爆发性的效应。兔年春节尚未结束,在中文网络上关于ChatGPT的讨论就开始愈发火爆。人们对它不乏调侃——这个聊天机器人往往会对一个难度不大的问题给出错误答案,一本正经地说瞎话;在调侃之外更多的则是惊叹——ChatGPT针对各种问题所进行回答的语言基本上已经看不出机器生成的生硬,而是标准的书面化,甚至是口语化的日常语言;其针对一些问题所产生的答案更是显得逻辑清晰,结构完整;甚至对于创作诗歌、小故事等要求往往也完成得远超人们的预期。 网友和ChatGPT讨论27是否是质数 这款展示出超强“智能”的聊天机器人迅速在全世界范围内成为一款“现象级”的应用。瑞银集团的一份研究报告显示,在ChatGPT推出两个月之后,它在2023年1月末的月活用户就已经突破了1亿,成为历史上用户增长速度最快的消费级应用程序。相比之下,其他几款也曾经风靡全球的应用,例如TikTok达到1亿用户用了9个月时间,Instagram则花了2年半时间。可以说,ChatGPT在短时间内风靡全球,即便对于它的开发者们来说也是一个意外。发布这个应用本来是被看作一次“研究预览”(research preview)。“我们并不想过分宣传,说它是一个重大的基础性进步。”ChatGPT的开发者之一利亚姆·费德斯(Liam Fedus)在接受媒体采访时这样说。 对于大多数人工智能领域的研究者来说,ChatGPT的表现确实堪称优异,而人们对其表现出的极高热情和好奇更是出乎预料。这种出乎意料的全球性热潮也必定会对整个产业造成一系列的连锁效应。这款对话机器人所应用的并不算是最新技术,而是基于2020年构建的一个人工智能模型“GPT-3”。开发者们在此基础上再进行细致调整,并且加入一些对话数据对其进行“训练”,随之诞生了“ChatGPT-3.5”(3.5是其版本号)。 《银翼杀手2049》剧照 对于大众来说,人们已经开始将ChatGPT的出现与之前在人工智能领域的几个标志性事件相提并论:1997年5月,IBM公司开发的“深蓝”(Deep Blue)国际象棋程序打败了当时的国际象棋世界冠军卡斯帕罗夫;2016年3月,由DeepMind公司开发的围棋人工智能程序AlphaGo打败了当时的围棋世界冠军李世石;而几年之后出现的ChatGPT又将人们对于人工智能的关注度提升到了风口浪尖。也有人将这款聊天机器人的出现与iPhone当年的横空出世相提并论——这绝不仅仅是一款产品而已,而是改变了全世界使用互联网的方式,标志着一个新时代的来临。 大多数对于人工智能,尤其是“自然语言处理”(Natural Language Processing)技术并不了解的普通人在使用过ChatGPT之后,往往会产生出三个问题:这款聊天机器人究竟是如何做到语言流畅、逻辑清晰甚至还展现出了一定的创作能力?通过类似的技术,人工智能在未来能够达到怎样的高度,还能完成怎样的任务?它的出现对人类社会将造成怎样的转变,很多工作(尤其是自己目前所从事的工作)会不会很快被人工智能所取代? 第一波热潮尚未过去,2023年3月12日,更新版本的“ChatGPT-4”出现。而微软公司也很快召开发布会,宣布使用与ChatGPT类似的技术,与其办公软件相结合,推出“Microsoft 365 Copilot”——目前还很难判断它将成为办公室文员的得力助手还是天敌。从发布会上所展示的性能来看,实际上大多数办公室文员的工作如撰写标准文档、制表甚至是对文档进行总结归纳等任务,都可以由这款办公软件自动完成。除此之外,一些基于类似技术的人工智能绘图应用也开始让人们乐于尝试。虽然与文字应用相比,目前看来人工智能的绘图能力还有明显欠缺,但也能够不时展现出绝佳的创意。 中国公司也在迅速跟进。2023年3月16日,百度公司召开发布会,推出聊天机器人“文心一言”。这款产品很容易被看作是对标ChatGPT而推出的中国版本。对其有过使用经验的人也自然会把两款产品放在一起来比较,目前收获的评价褒贬不一。 ChatGPT对于人类社会的影响可谓立竿见影。已经有多个学术期刊声明不接受这款人工智能机器人作为论文的作者,也有期刊表示允许作者使用ChatGPT对论文进行整理和润色。更有大学老师略带调侃地评价,现在很难判断学生交上来的论文作业是自己写的还是由ChatGPT生成,只能粗略判断:写得太工整、逻辑太清晰的作业应该是由ChatGPT完成的。 《她》剧照 在这股热潮稍微冷却一些之后,人们对于人工智能机器人的反应显得颇为复杂。有人感到恐惧,认为人类最重要的特征——进行思考和推理的能力——如今已经显得不再独特。由此便很容易联想到尼采在《查拉图斯特拉如是说》中的名言:“人之所以伟大,乃在于他是桥梁而不是目的。”有人为之欢呼,认为无论会产生出怎样的后果,一个全新的时代正在到来,人工智能在所有领域全面超越人脑只是一个时间问题,是一个“数学上的必然”(mathematical certainty);也有人认为人工智能已经完全超越了人脑,达到了所谓的“奇点”(Singularity)…… 必须承认,人工智能已经不再是供人展望和畅想的未来。无论你对人工智能持有怎样的看法,怀着怎样的情绪,它已经成为现实,成为我们生活中的一部分。为了完成这组报道,本刊记者试图深入到行业内部去了解人工智能研究最前沿的信息。目前人工智能研究最有活力的前沿区域当属位于硅谷的各大科技公司。不过,无论是微软、谷歌、Meta,还是位于伦敦、已经被谷歌收购的DeepMind公司,都对于采访要求保持沉默或是直接拒绝。其中的原因其实也不难想象:在当今人工智能产业正在发生剧变的时代,各大科技公司都有太多暂时不便公开的研究项目和商业计划。 我们决定转而去探访进行人工智能研究的学术中心。“神经网络三剑客”中的两位:杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(YoshuaBengio),分别在加拿大的多伦多和蒙特利尔建立了向量研究所(Vector Institute)和蒙特利尔学习算法研究所(MILA)。这两家学术研究机构会聚了大量人工智能领域,尤其是神经网络方面的专家,堪称世界人工智能研究的两大中心。我们对这两家机构做了实地参观,并对这里的多位学者进行了采访。 除此之外,本刊记者还对国内的科技公司以及人工智能领域的相关人士进行了采访。以色列历史学家、《人类简史》作者尤瓦尔·赫拉利也接受了本刊独家专访,谈论了人工智能所需要的全新的道德规则。在这次对学术界和工业界不同研究人员的采访中,我们感触最深的地方就在于,虽然大家都在朝着同一个方向努力,也都相信人工智能的发展会越来越好,但是对于一些根本性问题的看法却往往大相径庭。未来正是这样,在种种不确定中开始逐渐显现。 自己的工作有没有受到威胁,究竟什么工作最可能被人工智能所取代?正如我们的采访对象,英属哥伦比亚大学的克鲁恩教授所说,“颇有讽刺意味的是,人工智能来自数字世界,如果你现在的工作需要写很多的文字,发很多的邮件,制作很多的PPT,每天花很多时间使用电脑……那么你的工作很可能是最先会被人工智能所取代的。而对于人工智能来说,更难得工作在于如何系鞋带,如何拧螺丝,如何打扫房间……可以说,相比于清洁工的工作,律师的工作会很快就被人工智能所取代。” 说到底,如果你的工作需要每天花费大量时间用于操作电脑,而且大多属于重复性,不需要太多的创造力,那么你的工作就非常可能最先被人工智能所替代。而目前看来,通用型人工智能,尤其是人工智能机器人还没有成为现实,因此大多数的体力劳动仍然无法被替代。 《人工智能》剧照 人工智能和人类究竟该是怎样的关系?很多人把这理解为一种竞争,也有人希望人工智能可以成为人类的好帮手。在医疗保健、法律、教育等行业,目前看来人工智能还不能替代人类的工作,却可能成为人类的好帮手。 长远看来,人工智能更可能成为人类的一个伴侣。在经过了数百万年的进化之后,人类拥有了复杂的大脑,也成为了地球孤独的主人。人类大脑的构造堪称宇宙中最为复杂的机器,其中神经元的数量堪比星系中恒星的数量。如今,人类正在利用这个无与伦比的大脑,试图建造一个能够与自己进行平等交流,甚至可能超越自己的机器。或许人工智能最重要的意义,就在于让人类感觉在这个空荡荡的宇宙中不再孤独。 ▌来源:三联生活周刊 举报/反馈