文章主题:ChatGPT, AI detection, language bias

666AI工具大全,助力做AI时代先行者!

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  ChatGPT火了以后,用法是真多。

  有人拿来寻求人生建议,有人干脆当搜索引擎用,还有人拿来写论文

  论文…可不兴写啊。

🎓大学出手!ChatGPT成新挑战🔍 —— 美国高校力禁学生用AI代笔,严防学术诚信滑坡。📚他们研发智能检测工具,剑指那些企图通过ChatGPT轻松完成论文的学生。📝这些举措旨在维护教育公平,确保每个学生的努力都能得到应有的回报。🎓同时,这也引发了关于技术与教育边界、人工智能伦理的深入讨论。👩‍🏫让我们期待教育界如何在科技日新月异中找到平衡,以保护学术精神和知识的纯粹性。

  这里就出了个问题。

  有人论文本来就写的烂,判断文本的AI以为是同行写的。

  更搞的是,中国人写的英文论文被AI判断为AI生成的概率高达61%。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  这….这这什么意思?气抖冷!

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  目前,生成式语言模型发展迅速,确实给数字通信带来了巨大进步。

  但滥用真的不少。

🌟虽然市面上已有多种AI与人类创作内容的辨别工具,但他们效能的公信力及一致性问题仍备受关注。🔍提升这些技术的评判标准,确保其无偏见、可靠,是当前亟待解决的挑战。

🌟研究人员深入研究了几款主流的GPT检测工具效能,通过对比不同语言背景(如英语母语与非英语)的文本样本,进行了详实的评估。🚀

原文改写如下:🌟研究揭示了惊人的真相:非母语者的笔迹往往成为误判AI生成内容的关键,而母语娴熟者的文字却能轻松辨别,精准无误。📊这些检测器在处理外语写作时,表现出显著的偏见,难以区分真人工巧与机器模拟的相似之处。📝值得注意的是,尽管技术日新月异,语言的深度和独特性才是其辨识的基石。

  此外,研究人员还证明了,用一些简单的策略就可以减轻这种偏见,还能有效地绕过GPT检测器。

  这说明什么?这说明GPT检测器就看不上语言表达水平不咋地的作者,多叫人生气。

🎉想象一下,在那个真假难辨的游戏中,当你面对一个可能并非人类的对手时,智能系统的提示仿佛在耳边低语:「小心哦,他们可能会感受到你的无意冒犯。」🔍这不仅仅是一款游戏,它巧妙地挑战着我们对人工智能的理解,让我们在娱乐中体验到技术与人性微妙交织的瞬间。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

研究者通过对国内外教育论坛和Hewlett基金会数据集的精心筛选,收集了共计179篇托福与美国八年级学生的作文样本,旨在对市面上流行的7款GPT模型进行深度评估。这些作文涵盖了广泛的主题,旨在揭示其语言生成能力的真实表现。通过严谨的数据分析,我们力求提供客观、全面的检测结果,以供教育者和科技爱好者参考。请注意,所有内容已匿名处理,无作者信息及联系方式,避免任何商业用途。📚💻🚀

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  图表中的百分比表示「误判」的比例。即,是由人写的,但检测软件认为是AI生成的。

  可以看到数据非常悬殊。

  七个检测器中,美国八年级学生写的作文被误判的概率最高才12%,还有两个零误判的GPT。

  中国论坛上的托福作文被误判的概率基本全部过半,最高误判概率可达76%!

  91篇托福作文中的18篇被所有7个GPT检测器一致认为是AI生成的,而91篇中有89篇,都至少被一个GPT检测器误判。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  从上图中我们可以看出,被所有7个GPT误判的托福作文在复杂度(Complexity)上明显低于其它论文。

  这就印证了开头的那个结论——GPT检测器会对那些语言表达能力有限的作者有一定偏见。

  因此,研究人员认为,GPT检测器应该多看点儿非母语者写的文章,样本多了,才能消除偏见。

  接下来,研究人员把非母语者写的托福作文扔到了ChatGPT里,丰富一下语言,模仿母语者的用词习惯。

  同时作为对照组,把美国八年级小孩儿写的作文也扔到了ChatGPT里,把语言简化了一下,模仿非母语者的写作特点。下图就是修正后的新判定结果。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  我们可以发现,情况来了个大掉个儿,丰富了语言的托福作文错判率直线下降,低至3%,最高也不过19%。不像之前基本全部过半的错判率。

  与之相反,八年级小孩儿写的作文的错判率直线上升,甚至还有一个GPT检测器的错判率高达99%,基本全错。

  因为,文章复杂度这个变量出现了变化。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  这里研究人员就得出了一个结论,非母语者写的东西不地道,复杂度低,容易被错判。

  这也就导向了一个技术问题,同时也是一个价值问题。以复杂度来判定AI还是人类是作者,是否合理、全面、严谨。

  结果显然不是。

  以复杂度为判断标准的情况下,非母语者吃了大亏,因为,他们是非母语者(废话)。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  研究者认为,加强语言多样性不仅可以减轻对非母语者的偏见,还能让GPT生成的内容绕过GPT检测器。

  为了证明这个观点,研究人员选取了2022-2023年间美国大学申请的入学论文题目,输入到ChatGPT-3.5里,一共生成了31篇假论文。

  GPT检测器一开始还挺有效,但是第二轮就不行了。这是因为,在第二轮中,研究人员把这些论文又扔到ChatGPT里润色了一下,用一些文学性的语言提升了文本质量。

  这样一来,GPT检测器的准确度就从100%直降到了0%。如下图:

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  经过润色的文章复杂度相应也上升了。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  与此同时,研究人员又用了斯坦福大学145个期末项目报告的题目,让ChatGPT生成摘要。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  摘要经过润色以后,检测器判断的准确性继续下降。

  研究者再次得出结论,润色过的文章很容易被误判,都是AI生成的,两轮就是比一轮强。

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」
「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

  言而总之,总而言之,各种GPT检测器好像还是没能抓住AI生成和人类写作之间最本质的区别。

  人的写作也分三六九等,仅靠复杂度判断,不甚合理。

  抛开偏见因素不谈,技术本身也亟待改进。

  参考资料:https://arxiv.org/pdf/2304.02819.pdf

「ChatGPT检测器偏爱母语?研究揭示AI写作误判秘密」

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!