4个月,他用ChatGPT写了16篇论文,已发表5篇
期刊论文

4个月,他用ChatGPT写了16篇论文,已发表5篇

编译 | 卜金婷自ChatGPT上线以来,一些研究人员的论文产出速度变得“突飞猛进”。据美国《野兽日报》日前报道,美国田纳西大学健康科学中心的放射科医生Som Biswas,在4个月内使用ChatGPT写了16篇论文,并在4个不同的期刊上发表了5篇。他将第一次尝试的论文提交给了《放射学》杂志,这是北美放射学会的一份同行评审月刊。同时,他也向编辑坦言:你看到的都是AI写的。几天后,这篇题为《ChatGPT与医学写作的未来》的论文通过了同行评审,并顺利发表。 《ChatGPT与医学写作的未来》论文以ChatGPT为代表的大型语言模型(LLM)大大提升了生产效率,但它们也在科学界造成了翻天覆地的变化,许多专家担心学术出版的可信度受到侵蚀。 用AI在4个月内写了16篇文章 Biswas最新的一篇文章,是4月28日发表在《儿科放射学》杂志上的一篇评论。在这篇文章中,Biswas是唯一的作者,他在结尾处承认用ChatGPT写了这篇文章。Biswas承认,他利用AI写的论文并不限于放射学专业。事实上,他还写了关于ChatGPT在军事、教育、农业、社交媒体、保险、法律和微生物学中作用的论文。并且,他已经成功地将这些文章发表在不同的小众学科期刊上,包括一篇关于计算机编程的论文发表在《美索不达米亚计算机科学杂志》,以及2封发表在《生物医学工程年鉴》上的致编辑的信——主题关于全球变暖和公共卫生。Biswas说,他这样做的动机不仅仅是为了看到自己的署名。他想成为一项新兴技术的传播者,他认为这项技术将永远改变所有研究人员的工作方式。那么,期刊为何会发表这类AI创作作品?美国弗吉尼亚理工大学工程学教授、《生物医学工程年鉴》的主编Stefan Duma坦言,在过去的几个月里,他看到期刊收到的论文数量呈指数级增长——其中包括2篇来自Biswas的给编辑部的信。Duma解释说,给编辑的信基本上是期刊的意见部分,其中对发表文章的写作类型和研究深度的限制较少。这也是为什么Duma愿意发表Biswas的2篇文章。但是,他补充说,由于质量低下,他一直在拒绝更多由ChatGPT和其他LLM生成的文章。此外,上文提及的两本期刊《儿科放射学》《美索不达米亚计算机科学杂志》,没有回应媒体的置评请求。在微生物学家、科学诚信专家Elisabeth Bik看来,“至少Biswas承认他在使用ChatGPT,所以你必须给予他一些信任。”Bik说,“我已经遇到了很多其他人,他们也发表了大量令人难以置信的论文,同时也不承认ChatGPT。这些人发表得太多了。而这,实际上是不可能的。”Bik对在学术界使用LLM技术有两种看法。一方面,她承认对于第一语言不是英语的研究人员来说,它可以成为一种宝贵的工具,可以用它来构建连贯的句子和段落。另一方面,她也一直在关注,很多研究人员明显滥用聊天机器人,仅在过去几个月里就发表了数十篇文章。至于滥用产生的原因,Bik认为是“引用和出版物数量这两个衡量学术水平的指标。” 如果可以找到一种人为的方式来提高这些东西,这样就可以轻松地赢得更好的绩效指标。Bik还担心对LLM的使用激增更会助长“论文工厂”泛滥。她的担忧也是学界和出版界共同关心的议题。 检测“论文造假”是个挑战 今年5月,由以学术出版伦理为重点的非营利组织出版伦理委员会(COPE)和国际科学技术和医学出版商协会(STM)召集了一场峰会。峰会汇集了国际研究人员,包括独立研究诚信分析师,以及来自资助机构和出版商的代表。与会人员集中讨论了论文造假问题。“随着AI的迅速发展,论文工厂生成越来越合理的原始数据的能力将快速提升。”澳大利亚悉尼大学的分子生物学家Jennifer Byrne说。德国海德堡欧洲生物学会的图像数据完整性分析师Jana Christopher说:“我见过AI刚刚生成的假显微镜图像,但如何确凿证明图像是由AI生成的,仍然是一个挑战。”自由柏林大学社会科学家和独立研究诚信分析师Anna Abalkina怀疑,由于同行评审过程的周期长,这些AI工具在学术文献中明显增多的时间,可能会有所延迟。“这是我们第一次一群人聚在一起,共同采取行动以应对这个问题。”COPE的董事和研究诚信顾问Deborah Kahn表示,我们不能否认AI对科学研究有积极作用,但仍有必要区分使用AI编写的合法论文和完全捏造的论文。峰会期间讨论的一种策略是,要求作者提供带有水印的实验原始数据,能够让出版商确认这些数据是真实的。Christopher表示,目前提交原始数据的要求在出版商之间差异很大,所以需要制定跨出版商提交原始数据的统一标准。“我无法想象这会在一夜之间发生转变,现实是许多机构没有资源提供数据管理的基础设施。”泰勒-弗朗西斯出版集团的出版伦理和诚信总监Sabina Alam表示,该标准需要时间来实施。STM正在研发论文造假检测软件,同时通过其诚信中心收集有关其他类似工具的资源。这些工具既用于在提交时检测论文造假,也用于识别已经发表的假论文。泰勒-弗朗西斯出版集团是正在使用这些工具的出版商之一。Alam表示,越来越多论文被标记为需要进一步检测是否存在不当行为。从2019年到2022年,她的团队处理的伦理案例数量增加了十多倍,今年到目前为止,数量已经与2022年持平。参考链接:https://www.thedailybeast.com/how-this-doctor-wrote-dozens-of-science-papers-with-chatgpthttps://www.nature.com/articles/d41586-023-01780-w 编辑 | 方圆 排版 | 志海 合作事宜:hezuo@stimes.cn 投稿事宜:tougao@stimes.cn
ChatGPT提供的论文、商业策划书等,版权归谁?版权服务基层行首站走进高校
期刊论文

ChatGPT提供的论文、商业策划书等,版权归谁?版权服务基层行首站走进高校

计算机软件属不属于著作权的保护对象?作者向报社、期刊社投稿可以“一稿多投”吗?4月26日是第23个“世界知识产权日”,2023年“创新发展 版权同行”版权服务基层行活动首站在重庆邮电大学举行,围绕当下大学生们关心的数字技术发展问题,版权保护专家进行了现场答疑解惑。 ▲活动启动仪式。记者 李志峰 摄 活动中,重庆邮电大学的青年学生代表向全社会青年发出了“尊重原创 保护版权”的倡议。由重庆市版权保护中心与重庆邮电大学共同建立的版权实习基地正式揭牌。12名专家成为版权专家智库成员。 ▲版权实习基地揭牌。记者 李志峰 摄 当天上午,在场外的版权咨询活动中,大学生们在一块块版权知识科普展板前饶有兴致地观看。“ChatGPT提供的比如论文、商业策划书等,版权归谁?”有学生向专家库成员、重庆邮电大学网络空间安全与信息法学院知识产权系主任郭亮提问。 ▲重邮学子积极参与版权保护活动。记者 李志峰 摄 “这个问题很有代表性。”郭亮解释说,随着数字技术的发展,数字化的技术进步必然会引发版权制度的革新。当前,针对以ChatGPT为代表的人工智能深度学习成果是否侵权存在着两种声音。“一种认为ChatGPT深度学习后生成的作品,都是对别人材料的‘拿来主义’,没有经过作者的同意,它学习综合生成得越多,可能侵权越多。另一种是认为ChatGPT是一个机器一个系统,不存在版权这种说法。版权设计的初衷,是为了鼓励人的创新。如果把版权授予给了人工智能,就背离了版权法的初衷。” 郭亮还提出,ChatGPT等人工智能生成的作品权利的归属目前也有不同声音,它到底是属于开发chatGPT的人还是属于购买这款软件的人,相关方面都还在研讨这个问题。 ▲版权保护专家接受聘任。记者 李志峰 摄 当天,专家库成员还围绕“助力重庆版权数字化变革”,就版权人才的培养、数字版权侵权案例分享等内容,与师生们进行了面对面交流。 据了解,自2020年以来,我市每年组织开展“创新发展 版权同行”版权服务基层行活动,先后到版权重点园区和单位开展作品登记、法律咨询、教育培训、版权交易等“四个上门”服务,为市民提供版权咨询,提升全社会版权意识。 ▲重邮学子发出尊重版权倡议。记者 李志峰 摄 本次活动由市委宣传部、市版权局指导,重庆市版权保护中心、重庆邮电大学网络空间安全与信息法学院主办。 举报/反馈
阅读学术期刊论文的细节与获取经验
期刊论文论文写作

阅读学术期刊论文的细节与获取经验

这篇文章强调了在阅读学术期刊论文时需要注意的几个方面,同时也提出了一些有效的学习与应用论文经验的策略。作为一名文章写作高手,我会将这个信息精炼成“阅读学术期刊论文时需关注细节,并从中吸取经验”。