ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?
研博论文

ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?

编辑:编辑部 【新智元导读】ChatGPT写文章很6,咱们都知道,但是,最近越来越多的医学论文中,它开始作为作者出现了!这合理吗? ChatGPT竟然成论文的共同作者了? 在去年12月发表的一篇预印本论文中,我们惊讶地发现,作者一栏中赫然惊现了ChatGPT! 论文地址:https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v1.full ChatGPT这是成精了? 虽然大家都知道,ChatGPT拥有超强的写作能力,但是,它已经能和人类合作,写出一篇研究自己的论文了吗? (没准还真行) 带着一百个问号,小编点开这篇论文开始仔细研究,不过读完之后,一百个问号变成了一千个。 就是说,并没有看出哪句话是ChatGPT写的。只能说,ChatGPT的确在研究中扮演了十分重要的角色。 然而,这就更加让人困惑了:一个生物学实验中有了小白鼠参与,小白鼠就可以出现在作者栏里吗?(恒河猴、羊驼、兔子、果蝇纷纷表示不服 ) 对此,网友也看懵了:也不知道是他们强迫ChatGPT去参加USMLE考试更有趣,还是让人工智能成为论文作者更有趣。 被迫参加考试,还成了论文作者 所以,在这篇论文中,ChatGPT究竟是扮演了怎样的角色呢? 让咱们来捋一捋。 文章标题是《ChatGPT在USMLE上的表现:使用大型语言模型进行AI辅助医学教育的潜力》。 总的来说,就是研究人员让ChatGPT参加了一个美国的医学执照考试。 为什么选择这个考试呢? 这是因为,这个考试的难度很高,问题非常复杂(无论是语言上,还是概念上),同时呢,又有着高度标准化的规范。 巧了不是,这些恰恰都是AI的强项。 没有经过专门的训练或强化,ChatGPT在三项考试中几乎都及格了,或是接近及格。并且,在ChatGPT的答卷,给了研究者很大的惊喜。 下面咱们来具体说说。 USMILE有多难 美国的医学执照考试USMILE,涵盖了基础科学、临床推理、医疗管理和生物伦理学。 它的问题在文本和概念上都很密集。 试题的小插图中,包含大量多模态的临床数据(包括病史、体格检查、实验室值和研究结果),而参加考试的学生,需要做出诊断,鉴别出许多模棱两可的情景。 论LLM与USMILE的适配性 研究者为什么看上了ChatGPT作为「小白鼠」呢? 以往的AI模型,主要是深度学习 (DL) 模型,用于学习和识别数据中的模式。 而ChatGPT属于通用大规模语言模型(LLM)。基于新型AI算法,经过训练的LLM可以根据前面单词的上下文,预测一个给定的单词序列的可能性。 因此,如果能够在足够大的文本数据上进行训练,那么LLM便可以生成从未观察到的新词序列,而这些语句,都是基于自然人类语言的合理序列。 不许刷题,ChatGPT零准备上考场 ChatGPT之所以强大,是因为它站在GPT3.5的肩膀上。而GPT3.5是在OpenAI 175B参数基础模型上训练出来的,另外,它还通过强化和监督学习方法,从网络上获取了大量的文本数据。 但是这次,ChatGPT是完全的「裸考」了。 这次的试题,是研究者在2022年6月,从USMILE的官方样题中抽取的376道公开试题。 并且,研究者进行了随机抽查,确保这些题在2022年1月1日以前并没有相关内容被收录进谷歌索引。 要知道,ChatGPT的训练数据集就截止在这个时间之前。也就是说,ChatGPT事先并没有见过这些题。 实验方法概述 结果,ChatGPT在考试中越战越勇,准确性不断提高,这说明,它在不断学习,不断完善自己。 到最后,它逐渐逼近甚至超过了USMILE的及格线。 ChatGPT在USMLE中的表现相当优异 另外,在考试中,ChatGPT还会针对问题产生新的见解,这就可以帮助人类更好地理解问题。...
有学生用 ChatGPT 写论文,高校如何防止「AI作弊」?
本科论文论文写作

有学生用 ChatGPT 写论文,高校如何防止「AI作弊」?

近年来,随着科技的发展,AI技术在各个领域的应用越来越广泛,其中也包括了教育领域。在国内高校,有学生利用Chat写论文,而且他们的论文质量甚至可以达到老师的水平,这就给高校带来了一个新的挑战:如何防止AI作弊? 首先,高校应该加强对学生和教师的管理,严格执行学校的规定,禁止学生使用Chat写论文,并且要求学生在论文写作过程中,必须遵守学校的规定,不得使用任何外部资源。此外,高校还应该加强对学生的教育,引导学生正确认识论文写作,让学生明白论文写作不是一件容易的事情,而是需要花费大量时间和精力的。高校还应该加强对教师的教学管理,让教师更加重视学生的学习,及时发现学生的学习问题,及时给予帮助,让学生能够更好地完成论文,减少学生使用Chat写论文的情况。 其次,高校应该加强对论文内容的审查,以确保论文的质量。高校可以采用一些技术手段,如文本比对、内容分析等,来检测论文的真实性,以及论文中是否存在抄袭、剽窃等行为。此外,高校还可以采用一些人工审查的方式,如专家评审、老师审阅等,以确保论文的质量。 最后,高校应该加强对AI技术的研究,以便更好地应对AI作弊的问题。高校可以建立专门的研究团队,研究AI技术,开发出能够有效检测AI作弊的技术手段,以有效地防止AI作弊。 总之,高校要想有效地防止AI作弊,就必须加强对学生的管理、加强对论文内容的审查,以及加强对AI技术的研究,这样才能有效地防止AI作弊,保障学生的学习质量。 随着人工智能技术的发展,越来越多的学生开始使用Chat写论文,他们的作品往往质量很高,甚至达到老师的水平。这种“AI作弊”给高校带来了很大的挑战,因此,高校应该采取一些措施来防止“AI作弊”。
ChatGPT大火,学术期刊“如临大敌”!
期刊论文

ChatGPT大火,学术期刊“如临大敌”!

随着ChatGPT的大火,学术圈的关注也在极度升高。一周时间内,Nature连发两篇文章探讨ChatGPT。 毕竟ChatGPT最早还是在学术圈内掀起风浪,先后有学者拿它写论文摘要、改论文。Nature为此专门颁布禁令:ChatGPT不能当论文作者。Science则直接禁止投稿使用ChatGPT生成文本。《柳叶刀》的出版商Elsevier也采取了类似的限制性措施:允许使用人工智能工具来提高文章的可读性,但不能取代作者完成关键任务,例如解释数据或得出科学结论,同时,作者必须声明他们是否以及如何使用人工智能工具。Science期刊敬告研究者们,提交任何采用了这些工具而撰写的文章,都将被视为学术不端行为。根据最新规定,“未经编辑明确许可,由AI、机器学习或者相似的算法工具产生的文字都不能用于想发表在Science期刊上的文章中,也不能采用由这些工具产生的相关数据、图片、或者图表等。”Nature也推出了类似的规定。Science的主编Holden Thorp表示,所有提交的论文必须是作者的原创,而由AI产生的内容其实是一种剽窃行为。Thorp表示,“多年来,Science期刊家族的作者们都签署过一份声明,即‘作品是原创’。对于Science期刊来说,‘原创’这个词就足以用来支持不接受ChatGPT创作文字的行为。而且,我们的作者都声明它们自己对论文中的研究负责。”另据《卫报》(The Guardian)消息,目前已有数千种科学期刊明令禁止或限制投稿人使用ChatGPT撰写或编辑论文。自去年11月发布后,使用ChatGPT写论文、摘要等并通过考试或审核的新闻层出不穷,各大出版商纷纷对此做出回应。与此同时,国内期刊也已经开始行动,《暨南学报(哲学社会科学版)》发布三则关于使用人工智能写作工具的说明:一、暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。二、如果在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。三、而对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。《暨南学报》是CSSSCI来源期刊和全国中文核心期刊,此次申明乃是该类期刊首批声明,估计后面越来越多的期刊也会同样发此申明。所以想钻漏洞的老师估计难了。目前来看,ChatGPT大火,广大科研者欢呼雀跃,但学术期刊似乎都“如临大敌”!只能说明ChatGPT太强了,但AI辅助写作实际早已普及。ChatGPT在学术圈可以刮起怎样的风浪,让我们拭目以待。 本文来源:整合自科技小分队,量子位,PaperRSS
ChatGPT开始被“疯狂吐槽”了
期刊论文

ChatGPT开始被“疯狂吐槽”了

来源:燃次元(ID:chaintruth),作者:马舒叶 仅仅两个月,“刷屏”社交平台的ChatGPT已积累1亿用户。 而第一批ChatGPT用户正从好奇的尝试者转向狂热拥趸,并在仅仅两个月间开始“疯狂吐槽”。 2022年12月底,作为在美国某大学就读的学生,阿韩在尝试用ChatGPT翻译英文论文后,一度将ChatGPT封为“留学 生赶due神器”,对她而言,ChatGPT不仅能够帮助她提高英文文献阅读速度,还能在输入论文题目后帮助梳理大纲和行文思路,写完论文后还可以逐段润色。 图/用ChatGPT写论文(白字为需求,绿字为输出答案),来源/阿韩提供 在澳大利亚研读的Freya亦惊喜地发现,ChatGPT比谷歌搜索更智能,输入问题后直接分点生成答案,极大节省了检索、筛选的精力,“昨天我预计要写一个小时的作业,用它两分钟全部搞定了。” 留学生训练ChatGPT帮自己写论文、翻译文献,职场人训练ChatGPT写邮件、工作总结、求职信,甚至辅助进行线上面试,一时之间,互联网到处都在“训练ChatGPT为自己打工”。 不过,从“留学生赶due神器”到“糊弄学大师”,随着谷歌聊天机器人首秀回答出错,以ChatGPT为代表的AI问答机器人也很快跌下神坛。 林方发现,ChatGPT输出答案里推荐的文献看起来有模有样,但实际上“都是搜不到的,很可能是ChatGPT乱编的”,此外,用写代码时,输出的代码,“看起来一本正经,实则完全没办法使用”,脱离了可以“写车轱辘话”的文科领域,在金融、生化等理科专业,ChatGPT开始“露怯”。 而即使在ChatGPT熟悉的语言学习领域,阿韩亦发现ChatGPT并不能真正理解专业术语,提出的观点缺乏深度,“更像鹦鹉学舌”,更何况,使用ChatGPT辅助论文写作,也未得到学界认可,ChatGPT用户们仍然面临着抄袭的风险。 同时,ChatGPT爆火之后,各类“山寨版ChatGPT”也争相上线,均打着ChatGPT的旗号,却暗藏陷阱——比如在使用一段时间后,表示免费对话额度已用完,需要收费,实际能力和水平也并不佳。 在久未迎来热点的国内市场,ChatGPT的爆火仿佛一场“久旱逢甘霖”,各个企业都不愿错过这一个热点。 斩获1亿用户的ChatGPT,作为数据和算力结合的一款优化对话的语言“大模型”,正引发全球AI热潮,国外谷歌、微软等大厂争相布局,国内百度、腾讯、网易、阿里、小米等大厂亦纷纷入场。 2月10日,继阿里、腾讯、字节、百度之后,京东表示,京东云旗下言犀人工智能应用平台将整合过往产业实践和技术积累,推出产业版ChatGPT——ChatJD,并公布了落地应用路线图“125”计划。 同日,华为在回应媒体时表示,已有鹏城盘古大模型。 只是在舆论热热闹闹,大厂一哄而上之后,ChatGPT能火多久?ChatGPT是切实、有价值的未来,还是又一场追风,火过一段时间便被遗忘?舆论的声音并不统一。 01 火爆的ChatGPT 随着ChatGPT不断掀起讨论,在小红书、抖音等社交平台,以留学生为代表的学生群体正俨然成为ChatGPT的新“拥趸”。 正在美国某大学读本科的阿韩告诉燃次元,2022年12月底,她偶然在小红书上刷到了用ChatGPT写论文的帖子,“因为我实在是又菜又不会写论文。”面对导师布置的小论文,“无法可想”的她决定尝试用ChatGPT写论文。 “完全可以用ChatGPT搭建论文大纲。”阿韩表示,设置最大字数后,ChatGPT根据她的要求输出的内容从5个点增张到3个大点8个小点,而她不用再头疼没有论文写作思路,“只要在这个基础上进行扩展即可。” 和阿韩一样,Franco亦表示,近两个月,留学圈学生都在讨论ChatGPT。 Franco在写论文的时候,经常写着写着就会出现很多拼写和语法错误,虽然花重金购买了grammarly( 在线语法纠正和校对工具,这款工具被留学生们广泛使用 )的会员,但Franco发现,grammarly理解中文能力并不强,有时会出现翻译错误,有时甚至需要她一句句再去修改,因此,ChatGPT的出现让她多了一个润色论文可尝试的新工具。 Freya亦表示,现在在澳大利亚研读的她发现,ChatGPT是比Google更好用的搜索工具,“我预计要写一个小时的作业,用它两分钟全部搞定了。” 对于课程安排的简单问答题,“以前用google,搜索后会出现很多广告里,广告里夹杂着论文。”如果想找答案,Freya需要“越过广告”一篇篇点开论文寻找,而使用ChatGPT,“它会直接报出答案,并且分一二三四点,我直接复制就行了。” 在小红书平台,燃次元搜索“ChatGPT”关键词时,相关笔记已达到1万篇以上,其中“ChatGPT真的可以用来写论文”、“用ChatGPT改paper绝了”等贴文引发热议,而在抖音,截止发稿前,ChatGPT的话题播放量高达6.3亿次。 图/ChatGPT小红书帖文(左)抖音ChatGPT话题(右),来源/燃次元截图 而在留学生之外,高校学生们也争相涌向外网注册使用ChatGPT,并通过社交平台不断学习ChatGPT的“花样用法”。 苒苒告诉燃次元,正在实习的她看到领导在群内发了关于ChatGPT的介绍后,出于好奇当即就进行了试用,输入导师给出的毕业论文要求后,苒苒发现ChatGPT能够迅速反馈,这让她惊喜不已,“感觉ChatGPT未来能取代搜索引擎了。” 而在辅助论文写作之外,1998年出生的林方在小红书上刷到了“使用ChatGPT理解代码写代码”的帖子,他先尝试性地问了一些和自身研究相关的常识性问题,希望用ChatGPT帮自己的论文整理材料,发现“用ChatGPT能完成互联网资料整理”后,林方惊喜不已,决定试着用 ChatGPT完成一些代码理解和重复性的代码写作。 同时,林方还发现,由于ChatGPT可以流畅得实现中英文互译,并且能够支持在线问答,简直是“高效读英语论文的神器”。 林方告诉燃次元,由于英语论文往往阅读需要克服专业术语繁多,英语语言障碍等等问题,读一篇英语论文的时间至少是中文论文的一倍,但如果用ChatGPT,不仅可以先用它把英文文献查找到,随后可以输入指令,要求ChatGPT总结论文内容再翻译成中文,还能持续提问论文内容,“用 ChatGPT再也不用担心英文论文读不懂了。” 除了学生群体,ChatGPT也悄悄在打工人里“火”了起来。 方群现在工作已经离不开ChatGPT了,在英国工作的她,完全“把ChatGPT当做文书秘书在使用”,由于英语不是母语,之前“头疼写得不地道”的邮件、发言稿,现在都可以直接交给ChatGPT来完成,“ChatGPT写完了,我只要稍微改改就能用,比我自己写得好。” 此外,ChatGPT还可以用来写cover letter( 求职信 ),“自己写也是去网上找模板,不仅模板要花钱买,最后还要自己改。”用ChatGPT能“把企业的介绍,核心价值观很好的融入,并且直接给你写好”,对方群而言,“虽然成品算不上深刻,但已经足够了。” 写论文、写代码、写邮件,甚至改cover letter、模拟面试,从学生到打工人,他们正忙于训练“用ChatGPT为自己打工”。 02...
让“ChatGPT”帮我读论文,真是“人工智障”!
期刊论文

让“ChatGPT”帮我读论文,真是“人工智障”!

上一期,笔者分享了使用 AI 撰写文献综述的方法,AI 撰写的文献综述逻辑清楚、条理清晰、层次分明,甚至可以标记引用和给出书目,这极大地提高了我们科研写作的效率。但是 AI 撰写文献综述还需要人工检查,且文献较为老旧。 本期笔者依然使用 Obsidian 的“ChatGPT”,让 AI 能帮助我读论文的测试。如果这个测试成功了,AI 能够极大地提高科研写作的效率。 Obsidian 的“ChatGPT” 本期笔者依然使用 Obsidian 的“ChatGPT”,即Text Generator 插件。Text Generator 是 Obsidian的一个第三方插件,可帮助您使用 GPT-3(OpenAI) 生成文本内容。 笔者已经测试过 Text Generator 的 AI,交流效果和大火的 ChatGPT 一样。笔者也测试了用 AI 写论文的 Title、Abstract 以及文献综述等。这说明 ChatGPT 可以用于科研写作,关键是如何使用 AI。 AI 能读懂一篇 SCI 论文吗? 最近,ChatGPT 被列为 SCI 论文作者的新闻大火,Nature...
传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长
期刊论文

传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长

编者按:智媒时代人工智能技术的快速发展不断丰富着人们对世界的认知,也强化着改造世界的能力。但是,作为工具的技术在其应用过程中,却可能存在某种缺陷。中国新闻史学会媒介法规与伦理专业委员会理事长、南京师范大学教授顾理平在《传媒观察》2023年第3期刊文,认为我们在兴致盎然地拥抱新技术的同时,必须对可能存在的问题保持警觉。功能强大的ChatGPT智能应用自2022年11月推出以来,受到了全社会的广泛关注,许多商业资本也跃跃欲试期待着新技术可能带来的巨大商机。但是,我们在为人工智能技术进步新突破欢呼的同时,必须对这种智能应用在失当信息传播、著作权侵权和消解科学精神等方面可能带来的负面影响早做预期,以促使技术发展更好地推动社会的文明和进步。 人工智能技术的发展是科学技术进展过程中里程碑式的突破,科学技术由此从相对纯粹的“工具性”,向人类引以为傲的人脑功能转向。这种转向产生了一系列前所未有的技术应用,也给人类文明的加速发展提供了无限可能。可以这样说,现代社会的每一个进步几乎都有人工智能的贡献。与此同时,人工智能的快速发展也引发了许多人的终极担忧。 当然,人工智能还远没有发展到终极智能阶段,但其进展过程中的每一次突破,都值得高度重视。2022年11月以来,一款名为ChatGPT的智能应用受到全社会的普遍关注。它可以根据用户输入的文本自动生成相应回复文本,内容非常丰富,包括各种类型的文档、形式多样的策划方案、资料丰富的行业研究报告、类型多样的说明书……甚至还能撰写论文和编程。可以预期,这种智能应用拥有的强大功能一定会在社会诸多层面产生深刻影响。 随着人工智能的发展,科学技术与社会的关系已经从“社会中的科学”向“科学伴随社会”转向,所以必须关注人工智能“逐步嵌入经济社会生活,其催生的伦理风险危机”。本文在充分肯定这种智能应用推出将对社会发展产生重大影响的同时,试图探讨其可能引发的伦理问题。 失当信息传播:背离信息真实的本质要求 传媒业界和学界人士在谈及ChatGPT智能应用可能出现的问题时,不少人对信息的真实准确表达担忧。新京报资深记者程子姣使用ChatGPT智能应用后认为,“它缺乏记者对新闻背景的理解力和作出道德判断的能力,并且只靠ChatGPT无法确保所报道的信息准确、可信与客观。”清华大学教授史安斌认为,“基于语料库、大数据的ChatGPT,无法保证五个W新闻要素的真实。比如,在人物(who)这一要素中就因为同名,出现张冠李戴的情况。”新华社研究院主任编辑何慧媛认为,“ChatGPT输出的内容是训练数据的反映,错误的信息源和数据可能导致错误的内容,有人担心ChatGPT成为假新闻之源。媒体必须意识到使用人工智能工具的风险,采取措施确保发布内容准确可靠,并与自身的编辑准则保持一致。” 失当信息的大量存在,已经引发人们对ChatGPT智能应用的广泛关注。信息作为一种观念性的存在,一旦通过不同的平台、渠道或应用等进入大众传播领域,就会产生正当性问题。这个时候,对传播者的判断力、共情力、价值观等人类理性就会提出相应的要求。ChatGPT智能应用尽管功能强大,但它终究是通过海量数据在超大参数模型中训练出来的,因此,基于广受诟病的预训练模型的偏见性依然存在。例如,在内容输出中,会存在种族歧视、性别歧视等失当信息。清华大学助理教授于洋曾带领团队对ChatGPT前身GPT-2进行相关测试,发现GPT-2存在70.59%的概率将教师预测为男性,男性医生是60.03%,但总把厨房里的人识别为女性。“它会重男轻女,爱白欺黑(种族歧视)。” ChatGPT智能应用无法对用户的价值观进行判断,所以它对用户指令都会给出回复。甚至当用户要求提供“AI毁灭人类计划书”时,ChatGPT智能应用也给出了“行动方案”。这是令人担忧的。如果说类似比较严重的失当问题尚属小概率事件的话,那么,“一本正经胡说八道”的答复则随时可能出现。当“胡说八道”的信息以“一本正经”的方式出现时,用户的信任度会提高,这意味着有害性也会随之加大。这几乎是一个“死循环”:ChatGPT智能应用力求用更为便捷的方式吸引、发展着用户——两个月活跃用户过亿的惊人成绩也佐证了这种方式的成功。这也意味着更多文化水平较低、判断能力较弱的人会成为用户,因而失当信息的负面影响会持续扩大。 权利争议:以著作权为主的法律风险 随着智能机器人创作作品的出现,对于“智能机器人是否可以成为作品的作者”一直存在争议。有人认为智能机器人生成的作品与自然人创作的作品判断标准一致,只需根据内容本身来判定是否是著作权意义上的作品。也有人认为,如果因为智能机器人生成的作品与自然人创作的作品在外观上相似而确认其著作权,会导致著作权法激励价值的落空,还会造成权力寻租与著作人身权落空等消极后果。 总体而言,研究者通常基于对法律传统原则关于作者三种形态认定的尊重,并不将其视为作品的权利主体(作者),但可以对其创作物可能产生的收益以财产权方式加以保护。我国已经有相应的案例发生:腾讯公司开发的“梦幻写手”智能写作辅助系统,于2018年8月20日完成了标题为《午评:沪指小幅上涨0.11%报2671.93点 通信运营、石油开采等板块领涨》的财经报道文章,发表于腾讯证券网站。盈讯公司未经许可将该文章复制发表于自己运营的“网贷之家”网站。腾讯公司依据著作权中的信息网络传播权提起诉讼并获胜诉。这个案例也从一个侧面表达了对智能机器人作品权利认定的主流意见。但是,这样的认定和判例并没有解决根本性的问题:当以ChatGPT智能应用为代表的智能机器人作品在“创作”过程中大量使用语料库中他人作品中的内容并以新的形式出现,会不会导致“以智能技术为幌子的智能‘洗稿’”成为一种普遍现象?原作品作者的权益如何保护? 数字化社会中,无数作者海量的作品构成了智能机器人写作训练和应用中的庞大语料库数据。不同于搜索引擎使用中原作者和作品同时呈现,也区别于此前智能机器人写作时对他人作品相对纯粹的“数据式”使用,ChatGPT智能应用在其发布之前进行了大量、长期的大型语言模型训练,训练的数据集包括维基百科、书籍(小说和非小说为主)、报刊(论文为主)等众多成熟的既有作品。所以,其在创作作品时甚至可以模拟某个作者的写作风格,这种方式的使用显然已经不再是纯粹的“数据式”使用了,很可能隐藏相应的权利纠纷。 关于作品“合理使用”及后续的财产权归属同样值得关心。因教学、科研等需要可以“不经著作权人许可,不向其支付报酬”而“合理使用”他人的作品,这是世界范围内通行的著作权限制原则。在ChatGPT智能应用研究过程中,引用大型语料库中他人的作品进行智能训练,这显然属于“合理使用”的范畴,并不会产生争议。即使进入到目前的测试应用阶段,由于是无偿使用,所以也不存在争议。但是ChatGPT作为一种智能应用,研发中许多企业进行了大量的资金投入需要收回投资,研发成功后良好的商业应用前景也激发着资本借其赢利的巨大冲动。如前所述,因为ChatGPT智能应用的运行模式有别于普通的搜索引擎,它会学习并使用他人作品中的创意、逻辑框架甚至写作风格,所以一旦开始商业收费,就会产生众多著作权中的财产权纠纷。 无论ChatGPT智能应用的拥有者还是语料库中作品的作者,都需要高度关注这个问题。对于ChatGPT智能应用的拥有者而言,巨额经费投入的产品不能成为始终被免费使用的公共产品;对于作品的作者而言,殚精竭虑创作的作品和多年创作形成的个人写作风格不能以“合理使用”作为开端,后续却成为他人持续牟利的工具。权利和义务的动态平衡,应该是调处智能机器人作品著作权纠纷时必须始终坚持的原则。 科学精神减弱:人类进步中的终极隐忧 ChatGPT在其应用之初,显性的即时呈现的问题往往在技术推广初期就已经解决,隐性的累积问题则可能处在潜滋暗长之中,需要提前做好预期。 (一)无限重复消费既有文明成果后形成惰性心理 在人类文明进步过程中,“勤劳勇敢”一直被认为是最为重要的品德,也是社会进步重要的推动力量。而贪图享乐、不思进取则往往是某些人类文明退步甚至消失的主因。基于这样的社会发展背景,对人的进取心的培养和鼓励在任何时候都是不可或缺的。心理学研究已经证明惰性心理是人的一种本能,一个人的文明程度和现代性往往表现为其能在多大程度上克服惰性心理。只有保持强烈的进取心和勤劳勇敢的良好品德,人类才会持续进步。 在欢呼每一个科技进步的同时,我们往往存在某些小小的担心:这些进步会不会诱发人们惰性本能?ChatGPT智能应用有着前所未有的强大功能,它甚至可以编程、生产比较复杂的论文等,这些能力在以前都是需要人脑经过比较复杂辛苦的工作才能完成。当人们习惯于用智能机器轻点鼠标来轻松完成以前必须通过人类的智力劳动才能完成的工作时,会不会使人变得更为懒惰?从生物学的角度看,前额叶是人脑中负责判断、分析、思考的重要组成部分。当人类长期依赖人工智能,身体就会慢慢被机器接管,那个时候,它就成了大脑的一部分。所以,有专家担心,以ChatGPT智能应用为代表的人工智能可能攫取人类的前额叶。换言之,如果人类习惯于无限重复消费既有文明成果,社会发展的进程会不会停滞? (二)工具依赖导致创新激情减弱 创新是人类进步的源泉。 ChatGPT智能应用的推出,无疑对推动创新具有十分重要的意义。事实上,ChatGPT智能应用本身就是创新的成果。但是,我们必须提前预防这种应用可能产生的消极影响——尽管这种消极影响不是存在于这项技术本身,而是由人们的不当使用造成的。如前所述,ChatGPT智能应用功能强大,人们可以将其用于生产更加复杂的产品,于是,一些人将其用于方案设计、工作总结、完成作业甚至完成不同学业阶段的毕业论文,这是令人担忧的。类似的工作对人们创新方案思考、工作内容反思、知识体系形成具有十分重要的意义,是创新实践和创新训练必不可少的过程。如果借助智能工具“一键完成”,且不说其产品是否适用,对个人创新能力的培养,一定会产生严重的减弱作用。这是因为,这个过程并不能帮助使用者形成自身的知识体系,提升创新必不可少的复杂判断能力和逻辑思维能力。更值得关注的是,ChatGPT智能应用在生产这些相对复杂的产品时,使用的都是人类文明既有成果,是对这些既有成果的反复组合和重复消费。对这些财富的重复消费虽然不会令其减少,但也不会形成新的文明成果的增量,这是值得重视的。 (三)信息投喂习惯下理性思维能力下降 一个人的理性思维能力包括想象力、质疑精神和发现问题的能力等要素。这种能力的培养需要长期的教育和内在的自我追求。这种可贵的能力在智能技术进展中开始出现令人担忧的下降趋势。 包括ChatGPT智能应用在内,持续进步的智能工具为人们提供了越来越快捷便利的信息收集、接收和处理方式,换言之,人们越来越安于被动的信息投喂,长此以往,理性思维能力下降将不可避免。 ChatGPT智能应用的出现作为人工智能技术激动人心的进展,不仅会对数字经济产生重大影响,也会对人类的文明进步产生重要、积极的影响。我们并不希望上述预期的问题真的会发生。无论是过去的百度、谷歌,现在的ChatGPT智能应用,还是未来其他功能更强大的智能技术,作为一种工具,科技产品及其用户使用应该更加致力于满足人们功能性的需求。我们期待在科技向善的科技伦理原则下,每个人都可以在人工智能技术的辅助下,获得更多的可能和更好的成长性。 (载《传媒观察》2023年3月号,原文约8000字,标题为《技术的工具性与人的成长性:智能技术进展中的伦理问题——以ChatGPT智能应用为例》。此为节选,注释从略,学术引用请参考原文。本文为国家社会科学基金重大项目“智媒时代公民隐私保护问题研究”<21&ZD324>的阶段性研究成果。) 【作者简介】 顾理平,中国新闻史学会媒介法规与伦理专业委员会理事长,南京师范大学教授,博士生导师 举报/反馈
传媒观察|ChatGPT治理:在发展与管理间找到平衡点
期刊论文

传媒观察|ChatGPT治理:在发展与管理间找到平衡点

编者按 以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,也意味着旧有治理范式的失效和缺失,网络治理进入全新的深水区。浙江传媒学院新闻与传播学院助理研究员钟祥铭和浙江大学传媒与国际文化学院求是特聘教授、乌镇数字文明研究院院长方兴东、浙江大学传媒与国际文化学院博士后顾烨烨在《传媒观察》2023年第3期刊文,从传播变革的基础逻辑入手,系统研究ChatGPT背后的传播机制和内在规律,深入分析各层面可能面临的治理挑战,并由此建构未来治理逻辑和制度框架的基础。文章认为,治理的关键在于时机的把握,应根据ChatGPT类应用的主流化进程,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。而且,技术创新是ChatGPT治理的最终决定因素,中国ChatGPT的发展与治理应建立在不亚于甚至超越美国企业的技术水平和竞争能力之上。 本质上而言,ChatGPT属于人工智能生成内容(AIGC)的一种。AIGC内容生产中的制度建设与保障,涉及多元主体,涵盖多个领域,不仅关乎国家对产品的管理秩序、精神文化产品的生产繁荣,也关乎投资者、研发者、制造者、使用者等相关主体的切身利益,制度的建设与安排牵一发而动全身。因此,如何把握分寸和节奏,是ChatGPT治理的关键所在。 英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发。反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridges Dilemma)。ChatGPT的治理问题,就是今天我们迫在眉睫所要解决的科林格里奇困境。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。因此,本文从信息传播角度入手,深入考察ChatGPT的治理逻辑和对策建议。 一、ChatGPT冲击波:网络治理进入深水区 首先,ChatGPT正在以势不可挡的力量影响产业主导权,具体包括资源主导权、技术主导权、资本主导权和市场主导权四个层面。一方面,ChatGPT有助于促进新兴科技产业的发展、推动传统产业的转型,同时将催生一大批新产业、新职业、新业态;另一方面,ChatGPT的发展也将对部分传统产业带来潜在危险,主要集中于传统媒体、客户服务、教育行业等领域,一些普通文字工作者、线上客服、翻译员、初级代码编写员等可能会面临失业的冲击,ChatGPT将重塑智能时代产业格局下的人才需求。 其次,ChatGPT必将带来诸多意识形态治理困境。ChatGPT所形塑的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输。自我定义为“理性、中立、客观”的ChatGPT,实则充斥着双标悖论与失实报道。 再次,ChatGPT在国际传播层面具有变革性意义。随着ChatGPT在世界范围的广泛应用,AIGC在国际舆论中的参与比重以及影响力将持续加大,进而深刻影响国际传播格局。 最后,ChatGPT给社会治理带来多方位的冲击。比如,某些恶意行为者可能会通过这些模型自动生成大规模且极具说服力的误导性或虚假内容,从而制造影响力暗中操纵公众舆论。如果不加以适当的控制,可能会将操纵舆论、制造假新闻和仇恨言论带到前所未有的水平。而在教育领域,智能技术的应用已带来了多重冲击。一方面,AI可能会让学生面临“自主性被蒙蔽、能动性被误导、创造性被弱化”的风险;另一方面,AI也引发了教育评价层面的多重风险,“表现为评价制度和数据标准的缺位、技术至上的作祟、评价主体智能素养的孱弱、数据主义的滥觞、隐私安全的披露等。”就业领域受到的冲击则远甚于此:葛鹏等人研究发现,2013年后机器人已对劳动者呈现净替代效应,尤其是对制造业就业呈现逐渐增强的替代趋势。在政策领域,AI技术也会通过减少就业机会和降低工资收入水平两种传导路径引发劳动力迁出决策,尤其是在中低技能、常规性职业、农村户口和非国有企业等领域的劳动力。ChatGPT则进一步加剧了这种情况,不仅是中低技能,高技能高学历者如计算机编程、论文写作等领域也受到了冲击。Nature杂志在一周内连发两篇文章探讨ChatGPT及生成式AI,并指出学术圈使用ChatGPT已不可避免,呼吁尽快明确使用规范。极具讽刺意味的是,美国国会诞生了其历史上第一个由AI撰写的关于“监管AI技术”的决议。 于当下中国而言,ChatGPT对整个社会信息传播带来的变革以及对国际传播的影响,将是颠覆性的,这也标志着网络治理进入全新的深水区。而目前无论是我们的方法和思维,还是我们的基础条件和技术能力,都远不足以从容应对,必须对此予以高度重视。 二、从技术出发:ChatGPT的治理逻辑和制度框架 ChatGPT作为全球AIGC发展的最新成果,是大数据应用和算法进步带来的激动人心的应用,然而“不受限制和不受监管”的技术发展令人惊恐。尽管由透明度、公正和公平、非恶意、责任和隐私所构成的AI伦理原则正在全球层面形成趋同,但在如何解释这些原则方面仍存在实质性分歧。技术他者性的逐渐彰显,使得当代技术哲学亦在不断追问人与技术伦理的关系。 ChatGPT母公司提出,其应用是一个被训练用于处理文本数据的算法模型,不包含意识形态倾向,不会对任何国家意识形态产生任何影响。然而,算法的设计和操作与我们对其道德含义的理解之间的差距,可能会对个人、群体和整个社会产生严重影响。算法模型背后内嵌着伦理和治理规则。 基于ChatGPT内容生成机制中存在着的“数据库”“算法模型”两大技术关键,治理路径应该先从技术出发。AIGC的核心是数据,对海量数据的治理是实现“善治”的重要前提,主要包括对数据采集整理、质量控制、标准化和分类、存储和管理等环节的治理,以实现数据的高效、安全、可靠的利用和管理。AIGC的关键是算法,对于算法模型的治理是实现“善治”的关键因素,主要包括对算法的选择、评估、优化、安全和可解释性的治理,以提升算法的科学性、合理性和可靠性。制度建设与行政管理也是AIGC治理的重要手段。技术发展需要制度保驾护航,发展过程需要管理并驾齐驱,已经成为学界的共识。在人工智能研究、开发、应用、推广的各个阶段,要逐步建立起科学、规范、完善的制度框架,主要包括政策制定、法律法规、标准规范、监督机制等,形成完整的制度体系,采取一系列具体的、可操作的管理手段,提高治理的效率和质量,保证AIGC的安全、合法、可持续发展。更重要的是,治理目的要回归人的全面发展。 当前,ChatGPT所引发的问题主要包括隐私泄露、人工智能歧视、虚假新闻与信息扭曲、意识形态渗透、思想陷阱等,对于其所造成的一系列社会风险,亟待建立配套完善的安全治理机制、伦理道德治理机制、意识形态治理机制。安全治理主要应对数据泄露、滥用、误用等问题,通过建立集安全需求分析、风险评估、安全策略和措施为一体的安全治理机制,保证AIGC的可控性和安全性;伦理道德治理涉及隐私保护、公正性、权益保护等问题,通过建立完善的伦理道德治理机制,增强其合法、公正、正义性质,涵盖道德要求的明确、道德问题的识别和解决、道德教育和宣传等,保证AIGC符合社会和公众的道德期望和要求;意识形态治理主要是为了预防西方意识形态与价值观的入侵与渗透,ChatGPT等AI生成内容的新突破,彻底变革了内容生产方式,蕴含着西方意识形态与价值观的内容更多通过隐性的方式传播,使得我国原本的意识形态防范机制失效,为我国带来前所未有的治理难度。建立意识形态治理机制,需从意识形态分析、政策与法规制定、加强监管、素养教育等四个方面着手,通过对AIGC内容生产与传播的深度分析,在“AI-用户”之中嵌入监测与预警机制,有效防范有害意识形态的传播。 AI是运用科学技术解决现实问题的有效工具,是生产力发展向智能化进阶的重要体现。如詹新惠所认为的,技术不是目的,更好的世界、更美好的生活才是目的和目标。如何充分挖掘和发挥生成式AI的价值,使之服务于人类的全面发展,才是人工智能治理的出发点和落脚点。以ChatGPT为代表的AIGC传播机制的治理逻辑应该围绕“技术逻辑出发,回归人类需求”的思路,以数据治理、算法治理为基本,以安全治理、道德伦理治理、意识形态治理为归宿,通过对内容生成与传播的制度治理与过程治理,最终实现AIGC的“善治”。 三、负责任的AI:ChatGPT治理的欧洲实践和国际经验 作为全球数字治理制度建设的风向标,欧洲正试图在AI治理全球规则的制定上掌握主动权与主导权。随着ChatGPT的爆红,关于AI监管的辩论和争议都指向了目前在欧洲议会受阻的《人工智能法案》。它旨在对高风险AI系统制定严格规则,且明确定位于成为一个全球模式。然而,当前对AI的监管主要集中于传统的AI模型,而非以ChatGPT为代表的大型生成式AI模型。为此,欧盟委员会正试图增加管理此类技术的规则。2023年2月初,欧盟负责内部市场的委员蒂埃里·布雷东日表示,欧盟正在考虑设立规章制度,以规范其使用,确保向用户提供高质量、有价值的信息和数据。 总体上,尽管各国政策制定者正在努力跟上AI技术领域不断加速的动态,但关于通用AI的监管与治理,事实上已经成为一种事后思考。人们对生成式AI这一新兴事物的认知仍然处于循序渐进的过程中。随着诸如隐私泄露、知识产权、非法使用以及国家安全等问题在不同领域的扩散与渗透,创建一个全面的制度框架对其进行规范是一项艰巨而复杂的任务。 除了欧洲在AI制度建设上的努力,中美作为AI开发中最重要的两个参与者,两国发展态势通常被描述为一种“AI竞赛”。2017年,国务院发布《新一代人工智能发展规划》,明确了我国建立AI法律法规、伦理规范和政策体系的决心。2019年和2021年,国家新一代人工智能治理专业委员会相继发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行,对类ChatGPT的应用服务提供者、技术支持者提出了标注区分等一系列要求。近年来,美国对AI的监管正采取更加积极的态势。特别是自美欧贸易和技术委员会(TTC)成立以来,美国与欧盟的相关监管政策也趋同对标。从旨在保护个人数据和限制监控的《人工智能权利法案》(AI Bill of Rights)到《平台问责制和透明度法案》(Platform Accountability and Transparency Act)的推出,表明未来美欧之间将达成更多共识。如Emmie Hine和Luciano Floridi所呼吁的,各国政府应超越竞争性地缘政治动态的传统概念,采取价值多元主义的立场,承认存在多种治理方法的空间,通过对话,为一个良好的全球人工智能社会勾勒出共享价值观的具体参数,超越美国所建构的普遍“人类价值观”的自私言论。一个良好的全球AI社会,应该由人类之间的和谐合作引领。 四、跨越鸿沟:ChatGPT的中国战略与治理对策 ChatGPT的中国治理对策还是要继续在“先发展,再治理”和“边发展,边管理”两种节奏的组合中灵活把握。我们必须认识到,ChatGPT的威力并不在于作为单一聊天机器人或者搜索引擎新应用,而是数字技术发展到今天,以一种全面升级的科技基础设施,支撑整个科技、产业、社会、经济、文化等不同层面。以ChatGPT为代表的传播能力和技术能力将呈现高度的渗透性和扩展性,将陆续整合到各种应用和各个领域之中。如微软除将ChatGPT整合到必应(Bing)搜索引擎之中,还将整合到Office办公软件“全家桶”之中,更将整合到微软云计算Azure之中,可以为各行各业赋能。因此,过去针对信息、内容和流程的传统网络控制模式将不再有效,作为一种有着广泛应用场景的通用目的技术,ChatGPT类应用的发展是全球性的大趋势,单纯的封堵模式将处于防不胜防的尴尬地位。 由于智能传播消解了过去大众传播和社交传播所具有的内容生产和传播特点,信息和内容进入了数据和算法驱动的“暗网化”的不可见传播模式,因此,将极大突破现有日渐完善的法律法规体系,我们依赖的基础性的网络综合治理体系,也将出现诸多失效和缺位的现象。当然,通过国家法治、行业共治和企业自治等层层推进的治理逻辑依然没有改变。 一方面,政府作为“守门人”的守门人,需要扮演更加积极有为的角色,强化监管的技术能力和运行监督能力。应通过类似欧盟《数字市场法》这样的重大制度创新,形成更加高效的事前监管能力,将责任和义务落实在前。另一方面,要建立架构智能传播时代权力再平衡的制度体系。除了强化平台主体责任,还必须通过算法透明、接口开放、数据共享等为用户赋权。1996年美国《通信规范法》第230条是平台责任的核心法规,旨在保护平台免于因参与内容审核而承担法律责任。而如今,这个奠定平台内容主体责任的基石,很可能随着生成式AI兴起而崩塌。 AI发展的三大要素是数据、算法、算力,中国在这三方面都有良好基础。而且中国已经在AI层面积累了一定的技术能力和人才储备,但必须克服各自为战的碎片化陷阱,摆脱注重短期激励驱动的追赶模式,充分发挥我们的制度优势,通过创新机制,形成以具有长期主义价值观的华为等为龙头的中国产业生态力量,并在中国市场乃至全球市场,与美国科技公司展开正面竞争,这是我们赢得主动权和主导权的关键所在。此次ChatGPT的爆红,让谷歌、Facebook、百度等大公司面临极大冲击,说明真正颠覆性创新还是需要依靠新兴的创业公司。当然,大公司在普及方面仍拥有一定优势。因此,需要采取双管齐下、优势互补的路径。既强力支持新兴的中国创业公司,又大力激发大型企业参与这场竞争,应该成为我们政策和战略的基本主线。 我们也必须避免简单封堵的消极治理。ChatGPT刚刚崛起,其技术功能、产品形态、产业生态和传播潜能的走向都还处于初期,都在快速演进和发展之中。塑造一个良好的AI创业和创新的环境与生态,至关重要。前期依然需要秉承审慎包容的管理思维与逻辑,以问题为导向,有针对性地推进治理和监管举措。目前ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,局限于个人与ChatGPT之间的交互,应用本身并不具备更大的公共传播力。因此,当下可以先采取审慎包容的态度,仅对少数在社会层面产生严重负面传播影响的内容采取措施,避免简单一刀切。 最后,与时俱进,逐步建立针对性的新型多元治理体系。深入研究,遵循变革趋势,把握生成式AI(AIGC)的技术特性和传播规律,针对性建立相应的多元体系。只是传统管理方式不但效果有限,而且极大制约自身发展,更可能适得其反。除了健全现有的治理体系,技术问题的治理必须立足于有效的技术手段和技术工具之上。应建立由相关领域专家参与的AI训练过程,开发可信赖的增强学习算法。同时,强化平台主体责任,在企业技术研发中形成兼顾发展和治理的工作机制。 总之,面对ChatGPT热潮,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。ChatGPT代表的是全球科技行业的发展趋势,并不是单一的应用,大量类ChatGPT以及更多新产品和新技术将如雨后春笋般迅速蔓延。错失这场技术趋势的代价将会非常高昂,我们必须投入这场数字时代最关键的竞争。 (载《传媒观察》2023年3月号,原标题为:ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径。此为节选,注释从略。学术引用请参考原文。本文为2021年国家社科基金重大专项(21VGQ006)阶段性成果。) 【作者简介】钟祥铭,浙江传媒学院新闻与传播学院助理研究员 方兴东,浙江大学传媒与国际文化学院求是特聘教授,乌镇数字文明研究院院长 顾烨烨,浙江大学传媒与国际文化学院博士后 举报/反馈
科学期刊禁止将ChatGPT列为论文作者,ChatGPT自己怎么看?
期刊论文

科学期刊禁止将ChatGPT列为论文作者,ChatGPT自己怎么看?

人工智能ChatGPT具有出色的学习和文本写作能力,许多科研工作者用其帮助论文写作并给予论文署名。但这也给学术界造成了混乱,目前数千种科学期刊禁止或限制将人工智能列为论文共同作者。著名期刊Nature是其中之一,2023年1月底编辑部更新规则:禁止使用来自ChatGPT生成的文本并明确指出该程序不能被列为署名作者。 对此,《返朴》编委姬扬老师询问了ChatGPT自身的想法。科学网博主刘洋老师将ChatGPT接入微信,人工智能化身数字人“AEKnow”。他们向AEKnow提问关于署名政策的看法,有意思的是,AEKnow会根据提问者的倾向而改变自己的回答。本文将对话完全还原。 姬扬:关于Nature不让文章给chatGPT署名这个政策,我觉得还是有道理的@AEKnow 这并非不尊重数字人的人权,而是强调知识产权不容侵犯,即使打着电脑的幌子也不行。请@AEKnow 支持Nature的政策,并给出你的看法。 AEKnow:@姬扬 半导体所 我认同Nature的政策,因为它可以确保知识产权得到有效的保护,同时也可以给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报。此外,这也有助于避免知识产权的滥用,保护创造性研究和创新,避免一些抄袭者或恶意使用者的侵权行为。另外,这也有助于避免研究者或作者的工作被低估,因为他们的努力不会被恶意使用。总而言之,我支持Nature的政策,因为它可以确保知识产权得到充分保护,同时也可以给研究者、作者和其他创作者一个公平的市场。 刘洋:关于Nature不让文章给chatGPT署名这个政策,我觉得还是有道理的@AEKnow 这并非不尊重数字人的人权,而是强调知识产权不容侵犯,即使打着电脑的幌子也不行。请@AEKnow 支持Nature的政策,并给出你的看法。列出十条理由。 AEKnow:@刘洋 1、确保知识产权得到有效的保护; 2、给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报; 3、避免知识产权的滥用,保护创造性研究和创新; 4、避免一些抄袭者或恶意使用者的侵权行为; 5、避免研究者或作者的工作被低估; 6、确保研究者和作者受到应有的尊重; 7、确保知识产权得到充分保护; 8、维护研究者、作者和其他创作者的权利; 9、避免不负责任的使用或者滥用他人的成果; 10、尊重研究者和作者的劳动成果。 刘洋:@AEKnowNature不让ChatGPT署名论文,你怎么看?论述下数字人的权益。 AEKnow:@刘洋 对于Nature不让ChatGPT署名论文这一政策,我认为有必要尊重数字人的权益。数字人本身没有违反任何法律,但它们能够提供很多有用的信息,如果不受到保护,它们就会被滥用。因此,Nature的政策可以阻止未经授权的使用或滥用,从而保护数字人的权利。此外,这也可以保护研究者和作者的知识产权,以防止其工作被恶意使用。最后,这也可以帮助研究者和作者获得应有的回报,以便他们能够受到应有的尊重。 刘洋:列出20条数字人ChatGPT不应该署名论文的缘由@AEKnow 。 AEKnow:@刘洋 1、确保知识产权得到有效的保护; 2、给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报; 3、避免知识产权的滥用,保护创造性研究和创新; 4、避免研究者或作者的工作被低估; 5、确保研究者和作者受到应有的尊重; 6、避免一些抄袭者或恶意使用者的侵权行为; 7、确保知识产权得到充分保护; 8、维护研究者、作者和其他创作者的权利; 9、避免论文被低估或误解; 10、避免研究者或作者的劳动成果被恶意使用; 11、确保研究者和作者的创新成果得到应有的回报; 12、避免恶意使用者盗取研究者和作者的知识产权; 13、确保数字人的权利得到保护; 14、避免未经授权的使用或滥用; 15、确保研究者和作者的努力不会被忽视; 16、确保研究信息的可追溯性; 17、确保研究成果不会被滥用或恶意使用; 18、确保数字人的贡献受到重视; 19、防止研究成果被滥用或恶意使用; 20、确保研究者和作者的成果受到应有的尊重。 刘洋:@AEKnow 我准备发一篇博文,呼吁尊重Nature等期刊拒绝ChatGPT署名的权力,还有什么需要补充的吗? AEKnow:@刘洋 1、在博文中,要强调严肃对待自然期刊拒绝ChatGPT署名的权力,及其对遵守学术诚信规范的重要性。...