文章主题:量子位, 凹非寺, QbitAI, 文章
詹士 发自 凹非寺
量子位 | 公众号 QbitAI
面对ChatGPT,Nature终于坐不住了。
本周,这家权威学术出版机构下场,针对ChatGPT代写学研文章、被列为作者等一系列问题,给了定性。
具体来说,Nature列出两项原则:
(1)任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;
(2)如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。现在,上述要求已经添进作者投稿指南中。
近段时间,ChatGPT染指学研圈情况越来越多。
去年12月,一篇关于雷帕霉素抗衰老应用的论文发表,其中ChatGPT被列为第一作者,引发了业界对未来科技发展的讨论。除此之外,还有其他研究也将ChatGPT纳入作者名单,这反映出人工智能技术在学术界日益受到关注和重视。
Nature杂志在2022年12月的调查中揭示了这一现象。在293位接受调研的教授和导师中,有20%的人发现或者亲眼看到学生使用ChatGPT来完成作业和论文。对于这一情况,大多数人表达了深深的忧虑。
此次,Nature所发表的声明,正是希望对种种争议给予定性。
多篇论文已将ChatGPT列为作者
ChatGPT是OpenAI于去年11月底推出的一个重要产品。它的表现大幅度超过了此前的其他大型语言模型(LLM),因此在岁末年初成为了最引人瞩目的“窜天猴”。这一成果证明了ChatGPT在自然语言处理领域的强大实力,也展示了OpenAI在人工智能技术方面的领先地位。
在新媒体、影视、软件开发、游戏互动等领域中,ChatGPT被迅速加以利用,辅助生产提升效能。
学研圈也不例外。
据Nature统计,使用ChatGPT并将其列为作者的论文最少有4篇。
一篇名为“ChatGPT在美国医学执照考试中的表现”的预印本论文于2022年12月在医学预印本资料库medRxiv上发表。尽管该研究主题涉及到人工智能助手ChatGPT,但在作者名单中却出现了ChatGPT的名字。这一独特的现象引发了广泛的关注,因为这是首次有预印本论文在发表时将人工智能作为共同作者。
一篇关于开放人工智能平台在护理教育中利弊的论文,已在《护士教育实践》杂志上发表。在该论文的作者名单中,不意外地发现了ChatGPT的名字。
在第三篇论文中,来自AI药物研发公司Insilico Medicine的研究团队,针对一种具有创新性的药物——雷帕霉素进行了深度研究,并成功地在《Oncosience》杂志上发表。值得一提的是,该论文的作者名单中,包含了人工智能助手ChatGPT的名字。这一成果展示了AI技术在药物研发领域的广泛应用和巨大潜力。
第四篇稍显“古早”,发表于2022年6月,探讨主题就是——AI生成论文的能力如何。被列入作者一栏的AI也并非ChatGPT,而是更早发布的GPT-3。
尽管上述研究内容多少都与生成语言模型有关,但对于严肃的科研活动来说,使用“研究对象”写论文,并将其列入作者栏,不可避免引发了争议和质疑。
且即便不将AI列为作者,学研圈使用ChatGPT的情况也越来越普遍。
前文提及AI药物研发公司Insilico Medicine的CEO,Alex Zhavoronkov,他透露道,其所在的机构已发表了80多篇由AI工具生成的论文。
英国教授Mike Sharples一直关注生成AI对学术研究的影响。不久前,他在推特上亲手演示了如何用大型语言模型10分钟生成一篇学术论文,一步步描述自己如何用AI根据标题生成摘要,也引发不小讨论。
学生使用ChatGPT帮助撰写论文、生成代码、完成作业更为普遍,目前,美国已有部分地区教育机构禁止使用该工具。
就在上周,北密歇根大学一位学生依靠ChatGPT写出全班最高分论文。
有意思的是,该学生之所以被抓住,是因为所提交文章逻辑过于连贯,结构过于合理,以至于导师专门去质问了一下才得知真相。
△ 北密歇根大学
需要明确的是,上述抓包只是偶然,更多时候,生成内容已让科学家们真假难辨。
Nature此前一篇文章指出,ChatGPT发布后,伊利诺伊州西北大学一个研究小组就在探究,使用该AI工具生成医学论文摘要,科学家是否能识别。
结果发现,AI生成摘要均通过了抄袭检测器,在人工审核中,32%的AI生成摘要被认为是真实人类完成的。
已在开发辨别工具
此番Nature下场,表明了他们对ChatGPT引发问题的重视。
在最新内容中,Nature表示,学研圈都在担心,学生及研究者们可能会以大型语言模型生成的内容当作本人撰写的文本,除却冒用风险外,上述过程还会产生不可靠的研究结论。
尤其针对ChatGPT,Nature团队及很多出版商、平台均认为,该工具无法对科学论文的完整性及内容本身负责。
一个侧面佐证是科技媒体CNET这两天曝出,该平台AI编写的77篇内容中,41篇有错误,目前,平台已予以更正,并表示将暂停此种方式生产内容。
正是基于对上述情况的担忧,Nature出台了相关规定。
至于如何分辨AI生成内容?
Nature表示,目前ChatGPT原始输出可以通过仔细检查而被发现,尤其涉及具体科学工作时,内容可能包含最简单的错误及泛泛乏味的措辞。此外,Nature也表示,他们还在开发相关识别技术。
值得一提的是,相关识别工具也有人开发出来了。
比如OpenAI自己推出的GPT-2 Output Detector,输入50个以上字符(tokens)就能较准确地识别AI生成的文本。
再比如普林斯顿大学生Edward Tian,也做出过相关工具GPTZero。
不过,并非所有大学教授和老师对AI生成工具持否定态度。
比如宾大沃顿商学院一位教授Ethan Mollick,反其道而要求学生使用ChatGPT完成课堂作业,并认为这是在拥抱新兴技术工具。
论文发表平台medRxiv一位工作者也表示,ChatGPT也不算新麻烦。
他认为,此前,研究者都尝试偷偷加入宠物、虚构人物名字。因此,他们认为,问题核心是——需要继续加强检查。
最后问问,你在科研工作中用了ChatGPT么?
参考链接:
[1]https://www.nature.com/articles/d41586-023-00191-1[2]https://www.nature.com/articles/d41586-023-00056-7[3]https://www.nature.com/articles/d41586-023-00204-z[4]https://www.theverge.com/2023/1/26/23570967/chatgpt-author-scientific-papers-springer-nature-ban[5]https://www.businessinsider.com/wharton-mba-professor-requires-students-to-use-chatgpt-ai-cheating-2023-1— 完 —
量子位 QbitAI · 头条号签约
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!