文章主题:ChatGPT, 学术不端, 人工智能

666AI工具大全,助力做AI时代先行者!

ChatGPT已成‘文坛新宠’?出版商AI编辑政策你知多少?

作者 | Avi Staiman     来源 | The Scholarly Kitchen       编译 | 期刊观察

科研人员面临的挑战之一是确保他们的研究以清晰的方式写作,并成功地将他们的研究成果转化为引人注目的叙事或数据,成为有影响力的科学发现。虽然扎实的研究设计是杰出研究的基础,但叙事的形式和风格也在学术传播中发挥关键作用。

EAL (英语作为外语)的作者们面临着一个特别困难的挑战:他们试图用第二语言(有时是第三语言或第四语言)来传达他们的研究发现。写作工具和一些编辑服务可以帮助这些研究人员提高论点的清晰度,腾出更多时间专注于研究,加快出版速度,并获得对自己工作的信心。最重要的是,这些工具为 EAL 的研究人员(世界上绝大多数的研究人员)提供了一个更加公平的竞争环境,即研究的评价是其内容的质量,而不是其英语能力。

ChatGPT 作为一个作者

从11月发布 ChatGPT 的那一刻起,研究人员就开始测试如何利用它来提供帮助:写系统性综述、检索文献、总结文章、讨论实验结果。因此,我很惊讶地看到在讨论 ChatGPT的使用时,一些出版商忽略了其深远影响,而是集中在一个特别模糊的问题上,即“ ChatGPT 作为作者”。

这种反应似乎是在几篇文献将 ChatGPT 列为作者后产生的。《科学》《自然》和爱思唯尔迅速做出反应,更新了各自的编辑政策,无条件地声明 ChatGPT 不能被列为论文作者。《自然》杂志甚至将 ChatGPT 描述为“对科学透明度的威胁”。ChatGPT 不被授予作者资格似乎很正常,也没有产生太多分歧。事实上,并没有太多研究人员乐于与他们的同事分享作者资格,更不用说是一个聊天机器人了。

所以出版商只是回答了一个较次要的问题,同时避免了其他重要问题。例如,作者可以或者应该使用 ChatGPT 等人工智能工具来撰写自己的研究论文吗?它可以用来进行文献综述吗?分析结果怎么样?或者只是为了从目前的文章中起草一个摘要?这些是重要的问题,但出版商似乎并没有做出解释。

划清界限

那些处理这个“灰色地带”的出版商对于此问题有不同的看法。在宣布非人类无法获得作者资格之后,JAMA 为使用 ChatGPT 进行写作辅助留下了一些回旋余地(尽管有些犹豫)。指南要求作者详细描述 ChatGPT 的参与细节:

作者应该在致谢部分或方法部分报告使用的人工智能、语言模型、机器学习,或类似的技术所创作、撰写、编辑的内容。这应该包括对该内容的描述以及语言模型的名称、版本号、扩展号以及制造商。

《科学》采取了一种非黑即白的方法,基本上完全禁止使用 ChatGPT 生成的文本:

我们现在正在更新编辑策略,以确定不能在论文中使用由 ChatGPT (或其他任何人工智能工具)生成的内容、图形、图像。人工智能程序不能成为作者。违反这些政策将构成学术不端行为,与篡改图像或剽窃论文没有区别。

一个值得注意的例外是 ACS(美国化学学会出版物),它似乎正在采取一种积极、主动的方法来界定关于正确使用人工智能技术的指导方针。ACS Energy的一篇文章认为 ChatGPT 可以让研究人员从学术写作的负担中解放出来,让他们回到研究中去。ACS Nano 的一篇社论则概述了使用 AI 工具的最佳实践和策略。

ACS 所理解的是,ChatGPT 可以成为一个写作工具,而不是一个可靠的信息来源。然而,至少就目前而言,ACS 似乎是出版界的一个异类。同样值得注意的是,COPE (国际出版伦理委员会)发表了一份声明,认为只要得到适当的声明,作者可以使用这些工具,作出行为上的区分并将其编入政策似乎是向前迈进的关键一步。

预防性反应?

从这些字里行间中可以发现出版商对论文工厂的恐惧。传统的查重软件没有赶上人工智能工具,甚至查重软件还可能被人工智能生成的文本所愚弄。没有一家出版商希望成为下一个 Hindawi,面临大规模撤稿。

另一方面,出版商为作者使用人工智能工具留下“后门”是明智的,原因有二:首先,严格监管这些工具的使用不仅徒劳无益,而且可能很快变成一场噩梦。其次,一场军备竞赛似乎已经在进行,目的是开发出检测人工智能文本的软件。出版商可能会在这些工具上花费大量金钱,但结果会因为更好的大型语言模型而受挫。这些模型可以比检测软件更聪明。这是否应该成为我们关注的焦点,是需要考虑的一个重要问题。

表象可能是欺骗性的

当深入研究时,我们可以发现出版商正在努力开展人工智能与人类的合作项目,他们认为这是出版业的未来。施普林格-自然(Springer Nature)最近宣布了他们第一个人工智能增强的研究亮点,而且似乎还有更多的亮点。Cureus(也是Springer Nature的出版物)正在呼吁作者提交ChatGPT辅助的病例报告。JMIR 最近也为使用 ChatGPT 的专刊写了一篇征文。

为了就正确应对 ChatGPT 做出决定,我们需要重新审视一些学术出版的基本问题:包括作者身份的定义;剽窃行为;以及学术写作的本质。如果我们能够就推动学术出版发展达成一些价值观上的共识,那么我们就有机会制定出有意义且成熟的政策。

什么是作者资格?

为了回答这个问题,我们需要看看那些有多个作者的论文(这一个有争议的话题),它们如何分配作者顺序,就能明白“作者资格”问题是多么复杂。

作为问责制的作者资格

《自然》志主编 Magdalena Skipper 认为,“作者资格的归属带有文责,这不能有效地适用于大型语言模型”。如果研究人员有着一些原创的想法或概念,但在 ChatGPT 的帮助下把这些想法和概念整合到一起,这是否会使他们的研究不再新颖,或者他们不需再负文责?作者资格是否意味着列表上的作者必须写出每一个字、排好每一个参考文献的格式、插入每一个逗号,还是意味着他们要对最终结果负责?

作者是否有可能承担审查人工智能生成内容的责任?即使 ChatGPT 为一项研究生成了一些数据或内容,研究人员仍将承担以下责任:a)提示内容由 ChatGPT 生成;b)通过他们自己的批判性审查、修订,以确保信息的真实性。

WAME(世界医学编辑协会)认为,ChatGPT 不能满足 ICMJE(国际医学期刊编辑委员会)的作者标准,特别是 “批准论文的最终版本”和 “同意对论文的所有方面负责,确保论文任何部分的准确性,或诚信相关的问题得到调查和解决”。然而,这个定义需要一点更诚实的思考和反省。毕竟,有许多文章的作者(如学生)并没有批准论文的最终版本,也不对 “论文的所有方面”负责。

作为实质性贡献的作者资格

除了对论文负责外,COPE 还要求作者资格需要“对作品的实质性贡献”。在作者贡献的 CREDIT 分类法中,有14种贡献方式值得一个科研人员在一篇论文中担任作者。我认为 ChatGPT 至少符合其中10种方式。那么,一个研究人员是否可以既为论文做出实质性贡献,又承担文责,同时还依赖 ChatGPT 作为辅助工具呢?

什么是研究中的剽窃行为?

作者资格的最基本原则之一是:想法、文字和概念必须是原创的,或有适当的出处。抄袭这个词的根源是拉丁文 plagiarius,“绑匪”。如果内容不是原创的,就构成了剽窃,这是学术出版中的大罪。因此,我们有必要问:使用人工智能生成的文本应该构成剽窃吗?

这个问题的答案取决于 ChatGPT 到底是如何工作的,以及如何定义抄袭。关于前者,似乎 ChatGPT 不太可能直接从其他来源搬用大段文字,尽管一些短的句子片段确实可能存在重合。

更重要的是,我们需要对剽窃行为进行定义。如果把剽窃理解为作者使用非原创的内容,那么人工智能辅助写作应该被视为抄袭。然而,如果剽窃被理解为把别人的想法挪用为自己的想法,那么 ChatGPT 可能不应被认为是抄袭。因为 ChatGPT 是将别人的想法整合为新的文本,而不是直接搬用别人的文本。学术写作是建立在前人研究基础上的。研究者可以在前人研究的基础上增加新内容。

什么是学术写作?

如果我们要严格规范 ChatGPT 的使用,那么也许应该禁止使用学术代笔人,他们在写作过程中做了大量的工作(尤其是在工业界),却很少得到认可,更不用说他们的作者资格了。我们还需要考虑是否应该向作者询问他们使用的其他人工智能辅助写作工具。诸如 Grammarly、Writeful,甚至微软的语法检查器等工具都是作者非常依赖的。如果作者使用ChatGPT的目的是语言,为什么它需要声明,而其他工具不需要呢?

许多领域的科研人员使用软件、工具来收集、组织和分析他们的数据,没有人在意。是什么让我们对写作表现出如此不同的反应?

另外,如果作者从 ChatGPT 获得新的研究思路,或者让 ChatGPT 帮助他们分析结果,但他们仍靠自己进行写作,这是否可以?因为作者仍然是在进行原创性写作。

我相信有自尊心的研究人员不会把 ChatGPT 作为主要来源,就像他们不会以这种方式使用维基百科一样。然而,他们可以通过无数其他方式使用它,包括头脑风暴、造句、数据计算等等。对信息的真实性负责,这一项仍然落在研究者身上,但这并不意味着我们应该去禁止 ChatGPT。如果因为有些人可能把 ChatGPT 作为一种偷工减料的方式就采取强硬的政策,比如《科学》杂志采取的政策,似乎忽视了绝大多数认真做事的研究人员,他们只是想利用这些工具来推动他们的工作。

恐惧的代价:错失为EAL作者创造公平竞争环境的机会

禁止 ChatGPT 的出版商正在失去一个为EAL作者提供公平竞争环境的独特机会。 ChatGPT 可以用在很多方面以有意义的方式帮助改善学术写作。限制 ChatGPT 的使用会使这些作者处于明显的不利地位。反过来说,抓住机会,并利用这些工具为学术共同体服务的出版商,可以触达到以前因语言劣势而无法触达的受众,从而实现更强的代表性。

不仅如此,强硬的政策可能会适得其反,导致研究的透明度下降。以下是值得注意的一些思考:

🏆研究人员揭示ChatGPT写作潮流背后的学术风险🔍——《自然》调查显示,超八成作者已尝试使用这款AI助手,但多数对其出版界对AI编辑规定的模糊认知可能导致潜在违规。📝ChatGPT的便捷性让撰写不再是难题,然而,这股趋势下隐藏的法律边界却未引起所有人的注意。作者们可能在无意中,通过AI协助完成工作,若未能遵循严谨的学术规范,就可能触发学术诚信的警钟。📚对于出版商来说,明确的人工智能编辑政策至关重要,以确保科研成果的原创性和透明度。他们需要引导作者正确使用技术,避免因技术滥用而产生的误解或纠纷。📝💡在这个知识迭代的时代,我们需要重新审视并适应新技术带来的挑战,同时坚守学术诚信的底线。让我们一起关注并探讨如何在享受科技便利的同时,维护学术界的纯洁与尊严。🌍🎓

ChatGPT 已经被整合到 Bing Chat 中,并将很快被整合到 Microsoft Word 中。禁止 ChatGPT 可能很快意味着禁止使用搜索或文字处理器。同时,也很难像一些出版商要求的那样准确定义 ChatGPT 在某项研究中的使用情况,就像作者几乎不可能详细说明他们如何使用谷歌作为研究的一部分。

许多领域的研究人员已经在使用无数的人工智能工具,如 Elicit、Semantic Scholar 和 Scite。我们是否需要回过头来,因为他们使用了人工智能工具而没有适当的声明,撤回这些论文?

结论:我们真正希望我们的科研人员做什么?

人工智能工具促使我们思考一些基本问题:如何看待科研人员的总体作用,以及写作在他们工作中的具体作用。换句话说,我们应该在多大程度上关心科研人员在研究中写下的每一个字?

我认为,至少在 STEM(科学、技术、工程和数学)的背景下,写作是一种手段,目的是以清晰和连贯的方式传达重要发现。如果我们能更快、更便捷地做到这一点,那么也许我们应该停下来考虑一下潜在的好处。

在这种情况下,人文社科和 STEM 工作之间可能有一个重要的区分。在写作构成研究的重要组成部分的情况下,或者在作者的角色影响研究质量的人种学和定性研究中,我认为有理由采取更严格的政策。我们必须更多的思考如何使用人工智能工具,并在更细的层面上进行研究。

作为一个基本前提,我建议出版商鼓励研究人员使用他们所掌握的所有工具,以使他们的工作尽可能的方便和有影响力,同时继续教育研究人员如何寻找、审查和核实信息。同时,出版商需要快速推进同行评审改革,以做好准备,应对新奇与倒退、事实与虚假之间更加模糊的界限。

– END –? 点击下方关注期刊观察 ChatGPT已成‘文坛新宠’?出版商AI编辑政策你知多少?有意思的内容还有很多?

ChatGPT已成‘文坛新宠’?出版商AI编辑政策你知多少?

ChatGPT已成‘文坛新宠’?出版商AI编辑政策你知多少?

ChatGPT已成‘文坛新宠’?出版商AI编辑政策你知多少?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!