ChatGPT版权争议:AI创作边界在哪?
期刊论文

ChatGPT版权争议:AI创作边界在哪?

ChatGPT,一个由OpenAI推出的聊天机器人,因其强大的信息处理和文本生成能力引发了知识产权争议。国际语言学家认为其是剽窃系统,但反对者指出人类学习亦有继承。然而,它通过训练依赖大量数据,可能面临版权和法律风险。尽管ChatGPT声称其生成内容非作品,但其在某些领域被认定为作者的行为引发了对AI创作是否属于创作及替代人类的质疑。这方面的讨论深化了对合理使用和知识产权授权的法律审视。
ChatGPT时代,学术诚信如何保障?ChatGPT写作的论文挑战学术伦理,大学与技术赛跑中的诚信考
期刊论文

ChatGPT时代,学术诚信如何保障?ChatGPT写作的论文挑战学术伦理,大学与技术赛跑中的诚信考

《聊天与作弊》一文探讨了ChatGPT时代的学术诚信挑战,普利茅斯大学研究者通过ChatGPT撰写论文,尝试证明其高写作水平,却在同行评审中被误认为原创。学者们担忧论文作坊也利用ChatGPT,并指出该AI模型在理解学术文献和生成参考方面存在漏洞,使得检测作弊变得困难,但尚可从文献使用痕迹寻找线索。兰开斯特警告,尽管ChatGPT可能完成早期作业,但随着课程深入,其局限性将显现,无法替代人类撰写整篇论文。
ChatGPT会让编辑、翻译、设计师们失业吗?
期刊论文

ChatGPT会让编辑、翻译、设计师们失业吗?

一个多月前,ChatGPT 全网刷屏,我们也在第一时间试着把它训练成小红书读书博主,并探讨了它在辅助创作、提高阅读效率方面的巨大潜力。不仅如此,我们还预言AI创作的流行,将会把更多“水文”“注水书”赶出市场。随着GPT 4.0版本发布并全面接入微软Office全家桶,全球打工人不约而同感觉到一阵寒意,从一个多月前的置身事外,到如今面临“饭碗不保”,AI席卷一切的速度比我们想象中更快。编辑可能是最先感受到这一轮冲击波的群体。早在2月份,不少国外杂志的投稿邮箱就已经被AI创作的文章挤爆了,科幻名刊《克拉克世界》在20天的时间里收到了超过500份垃圾投稿,占到投稿总量的38%,即便有检测软件的辅助,杂志编辑依然感觉耗时耗力,难以招架。最终,《克拉克世界》不得不暂停接受投稿。随后,国内科幻杂志《科幻世界》也宣布拒收AI投稿,只是随着AI创作能力的日新月异,过滤AI辅助创作内容的难度也将直线上升。近日,AI图像生成服务 Midjourney创作的一对情侣在全球社交媒体刷屏,升级到第五版之后, Midjourney已经打破了“AI不会画手”的瓶颈,作品几可乱真。很快,就有国内用户通过GPT4 + Midjourney 的强强联合,画出了《三体》的主要角色。我们暂且不去考虑画师、CG美术设计师们未来何去何从,更关注作为内容把关者的编辑,如何应对“道高一尺,魔高一丈”的AI浪潮。近日,美国版权局已经针对AI生成作品出台了新规,规定版权申请者必须披露 AI 的使用情况,否则注册可能会受到影响。通过ChatGPT、Midjourney等平台自动生成的作品,训练数据是基于人类创作的作品,因此不受版权法保护。这样的规定虽然会让创作者松一口气,但问题在于,判定AI作品的重担就落在了内容审核者身上,比如媒体编辑、版权代理人、图书编辑等,他们不仅要练就一双看穿AI套路的火眼金睛,更要承担“看走眼”之后的法律风险,毕竟总不能像《克拉克世界》一样一拒了之。在国内,首当其冲的当属高校导师及学术期刊编辑,因为一些AI创作平台正在成为“论文降重神器”,通过复制粘贴+全文改写,全网搜罗的内容就摇身一变成了“自己的语言”,原来的查重工具就此失效。从此以后,只看内容“原创性”已经很难用来判断文章质量,而是需要花费更多功夫考察其内在逻辑及论证过程。当然,ChatGPT等AI创作工具,带给编辑们的并不只是更多的工作量,更棘手的工作难度,更高的法律风险,也可以反过来把他们从繁重的文字劳动中解放出来,辅助他们进行审稿、改稿、修订译文,创作小红书、短视频等营销文案。过去,Word仅能提供错别字校对等服务,国内一直没有Grammarly这样可以纠正语法错误,调整语气以及给出风格建议的辅助工具。直到最近两年,国内才陆续出现了一批文本校阅、润色工具,不再仅限于检测错别字,而是可以帮助编辑做更多脏活、累活。我用DeepL翻译了Johann Hari 的《Lost Connections》的开头部分,然后让某国内AI创作平台来帮我校阅译文。它不仅可以发现其中明显的语法错误,标点误用,甚至还能检测出“敏感词”。对于语法错误,你可以通过一键改写,来使其更符合中文的表达习惯。当审稿的效率直线提升,编辑或许就不用再沦为无情的“看稿机器”了。虽然ChatGPT的翻译水平相比DeepL并没有质的飞跃,但只要输入润色指令,进行专业领域的调教,便能够产出更为流畅的译文。DeepL+ChatGPT配合使用,虽然无法替代人工翻译,但至少可以用来比对判断译文质量,对于外版书编辑来说不失为一个工作助手。一个多月前,我们曾尝试让ChatGPT为我们创作小红书推书文案,发现它已经掌握了“车轱辘话来回说”这一废话文学的要领。如今,我们在给出了关键词提示的情况下,尝试让文心一言为东野圭吾的新书《白鸟与蝙蝠》写一篇小红书推文,虽然它并未如ChatGPT一样掌握小红书文案的精髓,对书的理解也停留在“望文生义”的水平,但写出的文案已经足以像模像样。即便文心一言相比ChatGPT在语义理解上仍有不小差距,但对于文案创作来说已经可以胜任。今后,编辑只要精准掌握了一本书的核心卖点,各个平台重复性的营销文案工作可以指导AI来完成。当然,封面设计这件事目前还无法交给AI来完成,从ChatGPT和文心一言分别为《白鸟与蝙蝠》创作的封面来看,AI作画仍然停留在字面理解的层面,很难像设计师一样深入考虑书名的深层意涵,整本书的风格基调,进行恰如其分的视觉表达,更不用说字体设计与视觉元素布局了。尽管Midjourney作品的真实程度已经可以媲美照片,但仍然缺少打动人心的情感力量。图书编辑可能是最不用担心被AI抢走工作的一群人,不仅仅是因为他们收入微薄,也不仅因为这是一项看似简单,实则门槛很高的职业,更因为他们是人类创造力的鉴定者与评判者,是抵御AI创作浪潮的最后一道防线。有了ChatGPT等工具的辅助,编辑就可以有更多时间从事更有创造性的工作,也可以和写作者、绘画者们一起创作出AI难以企及的作品。
用ChatGPT写论文靠谱吗?有学者试了一下:漏洞百出
本科论文

用ChatGPT写论文靠谱吗?有学者试了一下:漏洞百出

编辑:LRS 【新智元导读】虽然ChatGPT写的论文错误太多,但掠夺性期刊应该会接收。(错误尝试!!) ChatGPT以其强大的文本创作能力,直接问鼎地表最强问答模型。 但强大的AI也会带来一些负面影响,比如在问答社区一本正经地写出错误答案,帮助学生写论文等。 最近arXiv上的一篇论文引发了业界的关注,来自西班牙圣地亚哥-德孔波斯特拉大学的研究人员在文中以「人工智能在药物发现中的挑战、机遇和策略」,这篇论文的特别之处在于作者使用ChatGPT辅助论文写作。 论文链接:https://arxiv.org/abs/2212.08104 作者团队在摘要中的最后一段「来自人类作者的说明」(Note from human-authors)中表示,创建这篇论文是为了测试 ChatGPT (一个基于 GPT-3.5语言模型的聊天机器人)的写作能力是否能帮助人类作者撰写评论文章。 作者设计了一段指令作为文本生成的初始提示,然后对自动生成的内容进行评估。再进行彻底的审查之后,人类作者实际上重写了手稿,努力在原始proposal和科学标准之间保持平衡,文章的最后也讨论了使用人工智能实现这一目标的优势与局限性。 但是还有一个问题,作者列表里怎么没有ChatGPT?(手动狗头) 论文写作方法 本文是在ChatGPT的辅助下生成的,ChatGPT是2022年11月30日发布的一个自然语言处理系统,由OpenAI用大量文本语料库进行训练,能够根据提供给它的输入生成类似人类写作的文本。 就本文而言,人类作者提供的输入包括论文的主题(人工智能在药物发现中的应用)、需要考虑的章节数量,以及每个章节的具体提示和说明。 ChatGPT生成的文本需要经过人工编辑后才能作为最终的定稿,以纠正和丰富内容,避免重复和不一致等问题;并且人类也需要对人工智能建议的所有参考文献进行了修改。 这项工作的最终版本是人类作者在人工智能的协助下进行反复修改的结果,直接从ChatGPT获得的初步文本与当前版本手稿之间的总相似度为:完全相同的4.3%,微小的变化13.3%,相关的意义16.3%。直接从ChatGPT获得的初步文本中,正确的参考文献比例仅为6%。 由ChatGPT生成的原始版本,以及用于创建该版本的输入信息都涵盖进来作为Supporting Information 论文摘要中的插图由DALL-E生成。 论文内容 论文总共包括10个section和56个参考文献,其中section1-9都只包含1-2个段落,主要描述论文主题「「人工智能在药物发现中的挑战、机遇和策略」」相关的内容;第十个section主要讨论「人类作者对基于ChatGPT和AI的科学写作工具的专家意见」;文章中只有摘要部分包含一张插图。 摘要 人工智能有可能彻底改变药物发现过程,提供更好的效率、准确性和速度。然而,AI的成功应用取决于高质量数据的可用性、对道德问题的处理以及对基于人工智能方法的局限性的认识。 这篇文章回顾了人工智能在这个领域的好处、挑战和缺点,并提出了克服目前障碍的可能战略和方法。 文章中还讨论了数据增强的使用、可解释的人工智能、人工智能与传统实验方法的整合,以及人工智能在医药研究中的潜在优势。 总的来说,这篇评论强调了人工智能在药物发现中的潜力,并对实现其在该领域的潜力所面临的挑战和机遇进行了深入探讨。 人类作者对基于ChatGPT和AI的科学写作工具的专家意见 ChatGPT是一个基于GPT-3.5语言模型的聊天机器人,它的设计目标并非是撰写科学论文的助手,但它与人类进行连贯的对话并就广泛的主题提供新信息的能力,以及它纠正甚至生成计算代码的能力,都让科学界感到惊讶。 因此,我们决定测试它的潜力,为编写关于人工智能算法在药物发现中的作用的简短评论做出贡献。 作为撰写科学论文的助手,ChatGPT有几个优点,包括快速生成和优化文本的能力,以及帮助用户完成几个任务,包括组织信息,甚至在某些情况下连接思想。 然而,这个工具绝不是生成新内容的理想工具。 输入instructions后,还需要人类对人工智能生成的文本进行修改,而且是大篇幅的编辑和修正,包括替换几乎所有的参考文献,因为ChatGPT提供的参考文献明显不正确。 这也是ChatGPT目前存在的一个大问题,它与其他计算工具(如搜索引擎)相比有一个关键的区别,后者主要是为所需的信息提供可靠的参考。 而采用基于人工智能的工具进行写作辅助还存在另一个重要的问题:它是在2021年训练的,所以它并不包括最新信息。 这次写作实验提供的结果就是:我们可以说ChatGPT不是一个有用的工具,在没有强大的人类干预的情况下无法编写可靠的科学文本。 ChatGPT缺乏准确和充分传达复杂科学概念和信息所需的知识和专长。 此外,ChatGPT使用的语言和风格可能不适合学术写作,为了生成高质量的科学文本,人类的输入和审查是必不可少的。 这种人工智能还不能用于生产科学文章的主要原因之一是它缺乏评估处理信息真实性和可靠性的能力,因此,由ChatGPT生成的科学文本肯定包含错误或误导性信息。 同样需要注意的是,审稿人可能会发现区分由人类或这个人工智能写的文章并非易事。 这使得审查过程必须彻底,以防止虚假或误导性信息的发表。 一个真正的风险是,掠夺性期刊(predatory journals)可能利用科学文章的快速生产来产生大量的低质量内容,这些期刊往往受利益驱使,而不是致力于科学进步,它们可能利用人工智能快速生产文章,让不合格的研究充斥市场,破坏科学界的公信力。 最大的危险之一是科学文章中虚假信息的潜在扩散,这可能导致科学事业本身的贬值,失去对科学研究的准确性和完整性的信任,会对科学的进步产生不利影响。...