ChatGPT能否骗过科学家?AI机器人撰写研究摘要引发伦理争议
本科论文

ChatGPT能否骗过科学家?AI机器人撰写研究摘要引发伦理争议

生物预印本平台bioRxiv发布的一份报告显示,AI聊天机器人ChatGPT撰写的研究论文摘要能骗过专家审核,引发了广泛争议。尽管ChatGPT通过了抄袭检测且原创性高,但66%的生成摘要被人工智能输出检测器发现,并有32%误判为原始摘要。这表明大型语言模型在科学写作中的道德边界尚不确定,可能导致研究诚信问题和政策误导,需要谨慎对待。专家和学者呼吁提高审核标准,而AI公司则提醒应考虑创新思维。部分期刊已提出更严格验证信息的要求。
ChatGPT革命?AI聊天机器人开启语言生成新纪元,却也带来学术伦理与安全挑战?🔥
期刊论文

ChatGPT革命?AI聊天机器人开启语言生成新纪元,却也带来学术伦理与安全挑战?🔥

2022年11月,OpenAI推出的ChatGPT将大型语言模型技术带入大众,引发了广泛关注。这款聊天机器人能完成写作、编程等多种任务,甚至接近通过多项专业考试,显示出强大的能力。然而,其生成内容的准确性问题令人担忧,可能导致学术欺诈和误导。学术界呼吁研究人员遵循道德使用规则,禁止将AI作为署名作者,并在论文中明确说明对大型语言模型的依赖。《自然》和Springer Nature等期刊已对此采取相应措施。
「30年科研初心,赵惠民带领团队逆流而上,揭示酶工智能新秘密」
本科论文

「30年科研初心,赵惠民带领团队逆流而上,揭示酶工智能新秘密」

赵惠民是一位坚持科学探索的学者,他在23年里带领团队克服困难,发明了一种人工智能工具预测酶功能,这是利用对比学习的新深度学习算法,这种方法被审稿人认为准确且可靠。这项成果在《科学》发表后受到积极评价,尽管仍存在提高预测精确性的需求,他们正积极进行补充实验以优化算法。赵惠民的目标是进一步开发机器学习来表征其他蛋白质,以实现对细胞内部功能的全面理解。