ChatGPT多模态能力引领潮流,但自家论文揭示GPT-4V仍存缺陷
期刊论文

ChatGPT多模态能力引领潮流,但自家论文揭示GPT-4V仍存缺陷

本文讨论了人工智能模型 GPT-4 的多模态能力引发的热潮,以及在实际应用中发现的一些缺陷。尽管 OpenAI 发布的 GPT-4 可以理解文本和图像,但其视觉功能 GPT-4V 仍存在诸如错误推断、幻觉、遗漏文字和字符等问题。此外,OpenAI 表示已采取一系列保障措施来防止 GPT-4V 被滥用和误解,但这些措施仍有局限性。
ChatGPT可以是“作者”?《科学》等学术期刊发投稿禁令新京报2023-02-07 21:13
期刊论文

ChatGPT可以是“作者”?《科学》等学术期刊发投稿禁令新京报2023-02-07 21:13

图片来源:《自然》杂志网站。 ChatGPT 是一种大型语言模型 (LLM),由知名的人工智能研究实验室OpenAI在2022年11月30日发布,它通过模仿从互联网整理的庞大文本数据库中的语言统计模式来生成令人信服的句子。 相比于传统的语言机器人,ChatGPT能够通过学习人类的语言来进行对话,理解聊天的上下文语境,并且使用更接近人类日常的语言做出回应。除了聊天机器人的功能,ChatGPT甚至能完成撰写邮件、视频脚本、翻译、代码,甚至写小说、做考试题和撰写学术论文。ChatGPT在开放后引发了人工智能圈的轰动,短短几天时间内就吸引了几百万人的注册,被不少人誉为“有史以来最智能的聊天机器人”。 另一方面,ChatGPT对教育界和学术界造成了重大的冲击。人工智能不仅能够通过大学和专业资格考试,还能撰写专业性极高的学术论文,这些由人工智能生成的论文甚至连专业研究者也无法轻易分辨出来。当期刊编辑、研究人员和出版商仍在争论ChatGPT在文献发表中的恰当位置时,ChatGPT已经在学术文献中正式亮相。据《自然》杂志网站报道,至少有4份已发表和预印本上的论文使用了ChatGPT作为论文的“合著者”。 科幻纪录片《我们需要谈谈》(AI We Need To Talk About A.I.,2020)画面。 目前,多家学术期刊发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器人撰写学术论文。《自然》日前发表文章,明确了学术论文中使用人工智能写作工具的规定,其中列出两项原则:第一、任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;第二、如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。 《科学》杂志不接受使用ChatGPT生成的投稿论文,同时不允许ChatGPT作为论文合著者。《细胞》和《柳叶刀》则表示论文作者不能使用人工智能工具取代自己完成关键性任务,作者还必须在论文中详细解释他们是如何使用这些人工智能工具的。 学术工作者普遍认为,ChatGPT等人工智能工具很有趣,但它们距离真正的学术写作和科学研究还很远。《科学》杂志网站近日发表的社论文章称,正如工具开发者所述,“ChatGPT 有时会写出看似合理但不正确或荒谬的答案”。比如,引用一项不存在的科学研究导致最后的结论发生偏差,这对于追求准确性的科学研究来说是致命性的。此外,论文作者在发表作品时,都必须声明自己的作品是“原创”的,这就意味着使用ChatGPT编写和生成文本是完全不可接受的,这种行为其实剽窃了其他人的知识成果。 人工智能生成的内容还会引发一个更严重的问题:谁来对这些内容负责?通常而言,论文作者应对文章的观点和内容负责,但人工智能显然无法承担论文过程中出现谬误甚至造假承担责任。这也是目前大多数学术期刊和出版商“封杀”ChatGPT的主要理由之一。 也有一些观察人士指出,ChatGPT等人工智能工具的出现,一定程度上能够倒逼学术界和教育界对传统的运作模式进行变革。《自然》杂志网站先前发表的一篇文章提到,如果学生们开始使用ChatGPT,这不仅是“外包”了他们的论文写作,还会“外包”他们的思维。ChatGPT的出现可能会让教师减少让学生回答一些普通的问答题,更注重于培养学生的批判性思维。在论文写作上,学术工作者应该减少无意义的内容堆砌,生产真正有价值的学术研究成果。 参考资料: (1)ChatGPT is fun, but not an author https://www.science.org/doi/10.1126/science.adg7879 (2)ChatGPT listed as author on research papers: many scientists disapprove https://www.nature.com/articles/d41586-023-00107-z (3)Tools such as ChatGPT threaten transparent science;...
用ChatGPT写论文靠谱吗?有学者试了一下:漏洞百出新智元2023-02-08 14:17北京
期刊论文

用ChatGPT写论文靠谱吗?有学者试了一下:漏洞百出新智元2023-02-08 14:17北京

编辑:LRS 【新智元导读】虽然ChatGPT写的论文错误太多,但掠夺性期刊应该会接收。(错误尝试!!) ChatGPT以其强大的文本创作能力,直接问鼎地表最强问答模型。 但强大的AI也会带来一些负面影响,比如在问答社区一本正经地写出错误答案,帮助学生写论文等。 最近arXiv上的一篇论文引发了业界的关注,来自西班牙圣地亚哥-德孔波斯特拉大学的研究人员在文中以「人工智能在药物发现中的挑战、机遇和策略」,这篇论文的特别之处在于作者使用ChatGPT辅助论文写作。 论文链接:https://arxiv.org/abs/2212.08104 作者团队在摘要中的最后一段「来自人类作者的说明」(Note from human-authors)中表示,创建这篇论文是为了测试 ChatGPT (一个基于 GPT-3.5语言模型的聊天机器人)的写作能力是否能帮助人类作者撰写评论文章。 作者设计了一段指令作为文本生成的初始提示,然后对自动生成的内容进行评估。再进行彻底的审查之后,人类作者实际上重写了手稿,努力在原始proposal和科学标准之间保持平衡,文章的最后也讨论了使用人工智能实现这一目标的优势与局限性。 但是还有一个问题,作者列表里怎么没有ChatGPT?(手动狗头) 论文写作方法 本文是在ChatGPT的辅助下生成的,ChatGPT是2022年11月30日发布的一个自然语言处理系统,由OpenAI用大量文本语料库进行训练,能够根据提供给它的输入生成类似人类写作的文本。 就本文而言,人类作者提供的输入包括论文的主题(人工智能在药物发现中的应用)、需要考虑的章节数量,以及每个章节的具体提示和说明。 ChatGPT生成的文本需要经过人工编辑后才能作为最终的定稿,以纠正和丰富内容,避免重复和不一致等问题;并且人类也需要对人工智能建议的所有参考文献进行了修改。 这项工作的最终版本是人类作者在人工智能的协助下进行反复修改的结果,直接从ChatGPT获得的初步文本与当前版本手稿之间的总相似度为:完全相同的4.3%,微小的变化13.3%,相关的意义16.3%。直接从ChatGPT获得的初步文本中,正确的参考文献比例仅为6%。 由ChatGPT生成的原始版本,以及用于创建该版本的输入信息都涵盖进来作为Supporting Information 论文摘要中的插图由DALL-E生成。 论文内容 论文总共包括10个section和56个参考文献,其中section1-9都只包含1-2个段落,主要描述论文主题「「人工智能在药物发现中的挑战、机遇和策略」」相关的内容;第十个section主要讨论「人类作者对基于ChatGPT和AI的科学写作工具的专家意见」;文章中只有摘要部分包含一张插图。 摘要 人工智能有可能彻底改变药物发现过程,提供更好的效率、准确性和速度。然而,AI的成功应用取决于高质量数据的可用性、对道德问题的处理以及对基于人工智能方法的局限性的认识。 这篇文章回顾了人工智能在这个领域的好处、挑战和缺点,并提出了克服目前障碍的可能战略和方法。 文章中还讨论了数据增强的使用、可解释的人工智能、人工智能与传统实验方法的整合,以及人工智能在医药研究中的潜在优势。 总的来说,这篇评论强调了人工智能在药物发现中的潜力,并对实现其在该领域的潜力所面临的挑战和机遇进行了深入探讨。 人类作者对基于ChatGPT和AI的科学写作工具的专家意见 ChatGPT是一个基于GPT-3.5语言模型的聊天机器人,它的设计目标并非是撰写科学论文的助手,但它与人类进行连贯的对话并就广泛的主题提供新信息的能力,以及它纠正甚至生成计算代码的能力,都让科学界感到惊讶。 因此,我们决定测试它的潜力,为编写关于人工智能算法在药物发现中的作用的简短评论做出贡献。 作为撰写科学论文的助手,ChatGPT有几个优点,包括快速生成和优化文本的能力,以及帮助用户完成几个任务,包括组织信息,甚至在某些情况下连接思想。 然而,这个工具绝不是生成新内容的理想工具。 输入instructions后,还需要人类对人工智能生成的文本进行修改,而且是大篇幅的编辑和修正,包括替换几乎所有的参考文献,因为ChatGPT提供的参考文献明显不正确。 这也是ChatGPT目前存在的一个大问题,它与其他计算工具(如搜索引擎)相比有一个关键的区别,后者主要是为所需的信息提供可靠的参考。 而采用基于人工智能的工具进行写作辅助还存在另一个重要的问题:它是在2021年训练的,所以它并不包括最新信息。 这次写作实验提供的结果就是:我们可以说ChatGPT不是一个有用的工具,在没有强大的人类干预的情况下无法编写可靠的科学文本。 ChatGPT缺乏准确和充分传达复杂科学概念和信息所需的知识和专长。 此外,ChatGPT使用的语言和风格可能不适合学术写作,为了生成高质量的科学文本,人类的输入和审查是必不可少的。 这种人工智能还不能用于生产科学文章的主要原因之一是它缺乏评估处理信息真实性和可靠性的能力,因此,由ChatGPT生成的科学文本肯定包含错误或误导性信息。 同样需要注意的是,审稿人可能会发现区分由人类或这个人工智能写的文章并非易事。 这使得审查过程必须彻底,以防止虚假或误导性信息的发表。 一个真正的风险是,掠夺性期刊(predatory journals)可能利用科学文章的快速生产来产生大量的低质量内容,这些期刊往往受利益驱使,而不是致力于科学进步,它们可能利用人工智能快速生产文章,让不合格的研究充斥市场,破坏科学界的公信力。 最大的危险之一是科学文章中虚假信息的潜在扩散,这可能导致科学事业本身的贬值,失去对科学研究的准确性和完整性的信任,会对科学的进步产生不利影响。...
探索Consensus插件:ChatGPT新功能的论文搜索工具
期刊论文

探索Consensus插件:ChatGPT新功能的论文搜索工具

ChatGPT推出了“论文神器”插件,无需输入关键字即可搜索2亿文章,且链接保证保真。用户只需简洁地描述想了解的问题,例如“正念冥想有什么好处?”或“气候变化对GDP有哪些影响”,插件就会提供相应的论文链接及详细信息。该插件经过同行评审,确保搜索到的论文真实可靠。同时,它还能根据用户需求生成论文摘要和完整文章,让找论文变得更为便捷。 interested readers can check out the official website of Consensus at https://consensus.app/home/blog/introducing-the-consensus-search-chatgpt-plugin/ for more information.
ChatGPT在医学研究及期刊出版中的影响与挑战
期刊论文

ChatGPT在医学研究及期刊出版中的影响与挑战

这篇文章主要介绍了ChatGPT在医学科研和期刊出版中的应用,以及其在生命科学和医学研究中的具体作用,以及在医学期刊出版中的应用场景。同时,也指出了ChatGPT的局限性和在医学期刊出版中的道德规范问题,并预测了ChatGPT未来在健康医学领域的发展趋势。
ChatGPT引发AI伪造繁荣,OpenAI被迫祭出打假神器
期刊论文

ChatGPT引发AI伪造繁荣,OpenAI被迫祭出打假神器

今天,OpenAI发布官方打假工具,旨在打击ChatGPT等 AI 的“造假”行为。然而,许多网友试验后发现,该工具与自身猜测的效果相差无几,甚至有人将 ChatGPT 生成的内容的一字不变地提供给鉴定AI,而鉴定AI也无法区分。尽管 OpenAI 新工具的准确率比之前的鉴定器有所提高,但仍然只有26%的准确率,仍有9%的概率将人写的文本误认为是 AI 生成的。这让人们质疑,是否是因为 ChatGPT 过于善于模仿人类写作风格而导致鉴定器失效。