文章主题:ChatGPT, 伪造手稿, 物理学, Physica Scripta
用ChatGPT伪造手稿,十几篇论文被曝光
近期,一篇涉及复杂数学方程新解的学术论文已发布于物理学权威期刊Physica Scripta。初看之下,该篇论文的内容看似并无异常。然而,法国图卢兹大学的计算机科学家兼科学侦探Guillaume Cabanac在审阅论文的手稿第三页时,发现了一个不同寻常的词汇组合——“重新生成响应(Regenerate response)”。
对于熟悉ChatGPT的人来说,这个词组应该并不陌生。当您对AI给出的回答感到不满意时,只需按下该功能按钮标签,便可使其重新生成新的回答。
Cabanac迅速地将涉及泄露信息的的手稿页面截图发布在PubPeer平台上。在此之前,他已经公开了十几篇存在相似问题的论文。
一篇由Physica Scripta论文的手稿图片被发布在PubPeer平台上。在这份手稿中,Cabanac使用了黄色来强调词汇“重新生成响应”。
发现的不过是“冰山一角”
Physica Scripta的发行方,英国布里斯托尔的英国物理学会出版社,其同行评审与研究诚信负责人Kim Eggleton透露,一篇论文的作者在提交给期刊之前,确认使用了ChatGPT来帮助他们草拟稿件。
在5月份,我们的论文已经顺利地投稿给了相关领域的重要期刊。不久之后,我们在7月份又提交了一份经过修改的版本。在接下来的两个月里,我们对论文进行了仔细的同行评审和排版工作,然而在这期间,我们竟然没有发现任何明显的异常问题。令人遗憾的是,英国物理学会出版社已经做出了决定,决定撤回我们的论文。原因在于,作者在提交论文时,并未明确说明他们使用了某种特定工具。
“这违反了我们的道德政策。”Eggleton说。
类似案例并不罕見。自四月份以来,Cabanac已標記了十數篇論文,並將它們發表於PubPeer上。這些論文中都出現了一些指向ChatGPT使用迹象的詞語,例如“重新生成回應”或“作為一個人工智慧語言模型,我……”。
在 PubPeer 上发表的一篇论文中,我们可以看到一张截图,其中黄色 highlighting 突出了词组 “作为一个人工智能语言模型,我……”。这张截图为我们提供了一个关于该论文的重要信息,让我们可以更清晰地了解其内容和重点。
在一篇发表在Elsevier旗下刊物Resources Policy上的论文中,Cabanac检测到了其他典型的ChatGPT词组。这篇论文的作者分别来自位于沈阳的辽宁大学和位于北京的商务部国际贸易经济合作研究院。
起初他只是觉得论文中的一些方程似乎没有意义。但当他浏览到论文的第3张图表时,图表上方的一段文字暴露了真相:“请注意,作为人工智能语言模型,我无法生成特定的表格或进行测试……”。
Elsevier的一位发言人对此表示,他们“意识到了这个问题”并正在调查它。
期刊Resources Policy的论文内容截图,Cabanac使用黄颜色突出显示了词组“请注意,作为人工智能语言模型,我无法生成特定的表格或进行测试……”。
事实上,包括Elsevier和Springer Nature在内的许多出版商都曾表示,允许作者使用ChatGPT和其他大型语言模型(LLM)工具以辅助他们制作稿件,但前提是必须声明在准备稿件过程中是否使用了AI或AI辅助技术。
但Cabanac发现,上述论文的作者均未对使用过ChatGPT等工作的情况予以说明。而他们之所以会被发现,是因为他们没有对文本细节进行谨慎的处理,甚至常常忘记删除哪怕最明显的人工智能生成痕迹。
考虑到这一点,那些更“聪明”更小心地处理文本,却又隐瞒自己使用了ChatGPT的论文数量,可能比已知的数量多得多。
“这些发现只不过是冰山一角。”Cabanac说。
Cabanac通过与其他科学侦探以及研究人员合作,在未经同行评审的会议论文和预印本的手稿中也发现了同样的问题。Cabanac将它们一并发布在了PubPeer上,其中部分文章的作者有时会承认他们在未声明的情况下使用了ChatGPT来帮助创作作品。
越来越难的猫鼠游戏
早在ChatGPT出现之前,科学家就已经在和计算机软件撰写的论文做斗争了。
2005年,美国麻省理工学院的3名研究人员开发了一个名为SCIgen的论文生成软件。用户可以免费下载和使用该程序,其生成的论文内容完全是虚假的。开发者的初衷是想要测试这些毫无意义的手稿是否可以通过会议的筛选程序,他们认为这些会议的存在只是为了赚钱。
2012年,法国格勒诺布尔—阿尔卑斯大学的计算机科学家Cyril Labbé在电气与电子工程师协会(IEEE)发布的会议上发现了85篇由SCIgen程序生成的假论文。两年后,Labbé又在IEEE和Springer的出版物中发现了120多篇SCIgen论文。随后,两家期刊商从它们的订阅服务中删除了这些“胡言乱语”的假论文。
针对SCIgen,Cyril Labbé专门创建了一个论文检测网站,允许任何人上传可疑的论文手稿并检查它是否是由SCIgen生成的。
SCIgen生成的文章通常包含微妙但可检测的痕迹。例如,特定的语言模式,以及因为使用自动翻译工具而误译的“异常表述”。
相比之下,如果研究人员删除了体现ChatGPT使用痕迹的标志性词组,那么更复杂的聊天机器人所生成的流畅文本“几乎不可能”被发现。
英国伦敦研究诚信办公室的研究诚信经理Matt Hodgkinson称:“这本质上是一场骗子与试图将他们拒之门外的人之间的军备竞赛”。
知名学术打假人Elisabeth Bik表示,ChatGPT和其他生成式人工智能工具的迅速崛起将为论文工厂提供火力——学术论文造假公司将会借助这些工具伪造更多的假手稿,并出售给那些希望快速提升论文产出的研究人员。
“这将使问题变得更加糟糕,”Bik说,“我非常担心学术界已经涌入了大量我们甚至不再认识的论文。”
投机者变多,守门员不够了
曾就职于新西兰北帕默斯顿梅西大学的退休心理学家,化名为Smut Clyde的研究诚信侦探David Bimler指出,隐瞒大型语言模型工具使用的期刊论文问题指向了一个更深层次的担忧:忙碌的同行评审人员通常没有时间彻底检查稿件中是否存在机器生成文本的危险信号。
“看门人的数量跟不上。”Bimler说。
Hodgkinson给出了一个或许可行的建议:ChatGPT和其他大型语言模型倾向于向使用者提供虚假的参考文献。对于希望在手稿中发现这些工具使用痕迹的同行评审人员来说,这可能是一个很好的线索。“如果引文不存在,那就是一个危险信号,”他说。
例如,撤稿观察网站报道了一篇使用ChatGPT编写的关于千足虫研究的预印本论文。丹麦自然历史博物馆的千足虫研究人员Henrik Enghoff在下载这篇论文时,注意到该文虽然引用了他的研究成果,但是他的这些成果与预印本的研究主题并不一致。
哥本哈根国家血清研究所的微生物学家Rune Stensvold则遇到了引用伪造的问题。当一个学生向他索要一份据说是他在2006年与一位同事共同撰写的论文副本时,Stensvold发现这篇文章根本就是不存在的。追溯事实发现,原来该学生曾要求人工智能聊天机器人推荐有关芽囊原虫属的论文,而聊天机器人拼凑了一篇带有Stensvold名字的参考文献。
“它看起来很真实,”Stensvold说,“这件事情告诉我,当我要审阅论文时,我可能应该首先查看参考文献部分。”
文中仅代表作者观点,转载仅出于传播更多资讯之目的。若侵犯了您的合法权益,敬请告知我们更正或删除。
想查看更多学术文章,请关注“千言文化”公众号,了解更多科研干货、同领域发表案例、重点期刊信息。返回搜狐,查看更多
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!