文章主题:人工智能, 聊天机器人, ChatGPT, 自然语言处理

666AI工具大全,助力做AI时代先行者!

图片来源@视觉中国

文|追问NextQuestion

OpenAI开发的人工智能助手ChatGPT,凭借其基于生成性预约束转换器(Generative Pre-trained Transformer,GPT)语言模型而迅速成为各行业的热门话题。这个名字源于这个创新性的生成式预训练Transformer语言模型,它运用深度学习技术,可以对输入的文本产生类似于人类的反应。ChatGPT的智能化程度远超其他人工智能模型,这使得它在各个领域都备受瞩目。

ChatGPT囊括1750 亿个参数,这使其成为当今最大且强有力的人工智能处理模型之一,也因其给出的反应更加人性化,因此在越来越多不同职业场景中使用,不难想象在未来它也将会扩展应用到临床和转化医学。

ChatGPT 的新兴应用在科学界正在引发一场革命性的变革,同时引发了关于使用人工智能创作科学出版物伦理问题的讨论。这些出版物可能会对医生、研究人员以及政策制定者产生重大影响,从而影响他们的决策过程。因此,确保在使用人工智能进行科学研究时遵循正确的伦理准则至关重要。

ChatGPT :提供的不总是对的

ChatGPT 最显著的缺点是它编译的信息并不总是准确的,这一弊端在学术出版中尤其不利——毕竟,进步取决于分享适当的信息。在科学环境中不正确的数据呈现具有很大的危害性和风险性。

另外,对于一个由知识提升、加强干预和制定循证政策的极具时效性的领域来说,正在不断扩大的信息差是一个不容忽视的障碍。如果学者们利用 ChatGPT 来进行内容创作,可能会包含虚假或过时的论文信息,其将损害作者在同行中的信誉。

ChatGPT :使用的隐藏性

ChatGPT是一把双刃剑的原因还在于:学者几乎无法发现其他专业人士是否使用以及何时使用过它。西北大学(Northwestern University)的研究人员要求 ChatGPT 根据医学期刊上发表的一系列文章撰写 50 篇医学研究摘要,随后要求一组医学研究人员找出这些捏造摘要——阅稿人只能正确识别 68%的 ChatGPT 生成的摘要和86%的真实摘要。这样的结果证实了ChatGPT写出了可信(尽管可能不准确)的科学摘要。

对于那些期望利用ChatGPT提升写作能力的人群来说,该研究结果无疑是利好的。因为它意味着利用ChatGPT创作的作品在某种程度上可能不会被认定为人工智能生成。

然而,无法识别有效信息的问题也将随之而来。科学家可能会遵循有缺陷的研究路线,从而造成研究经费的浪费和具有误导性的结果;对于政策制定者来说,无法甄别虚假的研究将制定出基于错误信息的决策,从而对社会产生巨大影响。

由于这些影响,学界和科学出版界未来可能很快就会有禁止人工智能生成内容的政策,无论以任何身份使用ChatGPT的人都需要了解这些授权。

国际机器学习领域的第40届会议已对包括ChatGPT在内的人工智能工具所撰写的论文实施禁令。同时,Science系列的期刊也正在更新其许可和编辑政策,明确反对ChatGPT所生成的稿件。这些期刊在一篇社论中阐述了自己的观点,强调许多科学不端行为源自于人类注意力的缺乏,如果允许ChatGPT生成的内容,那么这种不良风气的风险将会显著提升。

ChatGPT :科研创新小助手

并非所有与ChatGPT相关的问题都会引起科研领域内的担忧。2023年2月Nature杂志的一篇文章描述了计算生物学家使用ChatGPT来改进已完成的研究论文。在短短五分钟内,生物学家们收到了对他们手稿的审查,这不仅增加了手稿的可读性,还发现了在方程上的错误。在对三个手稿的进行试验的过程中,尽管团队对ChatGPT的使用并不总是一帆风顺,但最终都得到了一篇润色更好的文章。

将ChatGPT用于此目的则避免了科学界对人工智能使用不准确或过时信息的主要担忧,因为根据计算生物学家最初撰写的手稿,信息已经是准确的和最新的。ChatGPT可以帮助提高研究人员的生产力和内容的质量。而如果科学家们能花费更少的时间在文章编辑上,则可以投入更多的时间来推进医学领域的科学研究。 

ChatGPT作为一种人工智能助手,对于那些期望验证答案或发掘工作难题的研究人员而言,其价值不言而喻。然而,令人遗憾的是,尽管ChatGPT已经广泛应用,但其并未经过充分的专业内容训练,因此在技术事实上仍存在查核的空白。

ChatGPT :应用于科研的挑战和机遇

专家预计,集成ChatGPT的技术和项目将成为人工智能系统的先导。与此同时,这样一个聊天机器人可以协助手稿编辑从而在学术和科学出版界中发挥积极作用。即便如此,ChatGPT 的使用者人必须意识到它的局限性。

正如Nature Machine Intelligence 杂志1月份发表的一篇社论所说,目前,我们不能指望ChatGPT提供正确的事实或可靠的参考,接受ChatGPT的局限性并仅将其用于某些任务,允许研究人员将乏味的工作(如手稿编辑)委托给人工智能模型,同时需要避免发布虚假信息等灾难性后果的发生。

随着 ChatGPT 的普及,调整对其能力的预期并接受它不能承担每一份工作将是至关重要的。特别是在学术研究领域,任何需要专业学科知识或创新性思想和观点的任务仍然需要人工智能无法替代的、真正的人情味。

ChatGPT :并不是一个作家

由于ChatGPT在提供可靠信息方面不断发展的局限性和潜力,在对ChatGPT进行迭代时必须十分谨慎:人工智能能代替人工输入吗?在此,H. Holden Thorp教授对于ChatGPT的观点可能更为准确:“ChatGPT很有趣,但不是一个作家”。

作为一名具备专业素养的文章写作高手,我将重新组织原文内容,并确保其长度不短于原文。科学家们可以借助人工智能工具提升工作效率,例如在校对和手稿审查方面。未来,这些AI工具或在科学研究领域带来更广泛突破和更高认可度,但同时也要注意根据自身能力选择合适的人工输入方式。

对于伦理与道德之间界限的讨论需要进一步推进,在卫生研究中AI的使用也需要进一步探索建立指导方针。所有研究人员和参与者必须了解人工智能的安全和禁止范围是哪些。因此,编辑和编辑委员会成员应继续监管ChatGPT在学术研究中的应用,以起草期刊政策,让撰稿人了解到人工智能的最佳实践方式——毕竟,卓越的研究需要用道德和诚信来衡量。

参考文献:

在现代科技不断发展的背景下,人工智能的应用已经深入到我们生活的方方面面。然而,人工智能是否具备学习行为的能力一直是一个备受争议的话题。Blaise Arcases在2022年的文章《Can Machines Learn How to Behave?》中对此进行了深入探讨。在这篇文章中,Arcases通过对现有研究成果的分析,提出了机器能否学会行为的这个问题。他认为,虽然目前的人工智能系统已经在一定程度上展现出了学习行为的能力,但这种能力仍然受到很多限制。首先,人工智能的学习行为往往是基于已有数据的模式识别,缺乏真正的理解和创新。其次,人工智能的行为往往受限于其设计和编程,很难实现自主探索和学习。因此,Arcases认为,要想真正让机器学会行为,我们需要进一步深化对人工智能的理解和技术突破。

在2019年,P.S. Churchland推出了一本名为《良知:道德直觉的起源》的著作,由Norton出版。这本书深入探讨了人类道德直觉的本质、起源和发展,对于理解人类的道德行为和心理机制具有重要的理论价值和实践意义。

[3]Rowling, J. K. (1997). Harry Potter and the sorcerers stone, Bloomsbury.

[4]Hofstadter, D. (2022). Artificial neural networks are making strides towards consciousness. Economist (June 9).

[5]Lemoine, B. (2022). Is LaMDA sentient?: An interview. Medium. https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917.

[6]van Dis E, Bollen J, Zuidema W, van Rooij R, Bockting C. Chat-GPT: five priorities for research.Nature. 2023;614(7947):224-226.https://doi.org/10.1038/d41586-023-00288-7.

[7]Stokel-WalkerC,VanNoordenR.WhatChatGPTandgenerativeAI mean for science.Nature. 2023;614(7947):214-216.https://doi.org/10.1038/d41586-023-00340-6.

[8]The AI writing on the wall.Nat Mach.2023;5(1):1.https://doi.org/10.1038/s42256-023-00613-9

[9]Seyhan, A. Lost in translation: the valley of death across pre-clinical and clinical divide – identification of problems andovercoming obstacles.Transl Med Commun. 2019;4.https://doi.org/10.1186/s41231-019-0050-7

[10]Samuel G, Chubb J, Derrick G. Boundaries between researchethics and ethical research use in artificial intelligence healthresearch.JEmpirResHum. 2021;16(3):325-337.https://doi.org/10.1177/15562646211002744How to cite this article:Wen J, Wang W. Thefuture of ChatGPT in academic research andpublishing: A commentary forclinical andtranslational medicine.Clin Transl Med.2023;13:e1207.https://doi.org/10.1002/ctm2.1207

參考資料:
1.BlaiseAgüerayArcas.(2022).Canmachineslearnhowtobehave?Medium.<https://me

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!