近日,“国内高校已有学生用ChatGPT论文”话题引发热议,随后《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》等学术期刊相继发布关于使用人工智能写作工具的说明。

《暨南学报》编辑部声明,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。

《天津师范大学学报(基础教育版)》编辑部在说明中提到,倡导合理使用新工具、新技术,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。

ChatGPT能否写好论文?在审核过程中高校教师又能否识别出来?对此,九派新闻进行了测试,并邀请高校教师进行了评审。

【1】测试:ChatGPT写出的论文已经能够“蒙混过关”

日前,九派财经记者要求ChatGPT以“我国主流媒体人物报道中的女性形象建构研究”为主题、“新闻框架理论”为基本理论,写一份本科生论文大纲。在不到两分钟内,它交出了一份答卷——湖北省某高校新闻传播学院教师郑忠明给这份大纲打了及格的60分。

人工智能写作工具风靡高校,论文创作何去何从?

郑忠明评价到,可能由于学习数据库中的论文本身不够规范,机器很难理解论文研究的意义,ChatGPT给出的大纲前半部分层次比较凌乱,而后半部分模式化的框架没有太大问题。

郑忠明直言,如果没有提前知道上述大纲来自ChatGPT,他不能辨认出来。他解释到,有些论文大纲本身就很粗糙,会让人感觉是机器拼凑的东西,也就是说,人类的行为中已经包含了很多类似于机器的行为。

【2】高校教师:辨别作者是机器和人,关键在论文审稿者

和人文学科论文相比,理工科论文中AI工具写作的内容可能更难被识别,具体表现在,针对伪造的实验数据,审稿人无法在短期内证伪;而由于实验过程的繁琐,向AI工具寻求实验数据恰恰是很多学生的常规操作。

某高校电子科学与技术专业本科生林广(化名)曾向朋友借ChatGPT账号。他告诉朋友,“我写论文,需要(ChatGPT)给我算一下相关数值,这样会比我去其他网站找相关代码cv再去仿真软件里模拟结果要快。”

对于前述期刊针对ChatGPT发布的使用说明,林广坦言:我觉得没有人会完完全全照搬ChatGPT的回复,多少都会“润色”一下,所以界限很难判断,“这个东西和学术抄袭一样都挺难管控的,使用者不说,你也不能一口咬定是抄袭。”

使用ChatGPT等人工智能工具写论文这一现象正逐步蔓延开,郑忠明对此的态度不甚乐观。他认为,所有工具的使用最终都要落实到人的道德和理性的控制,但事实上,由于每个人发表论文追求的目的不同,让人仅仅把人工智能工具作为一个查阅资料的辅助手段,是一个很高的要求。

作为教师,郑忠明的应对ChatGPT的方法是向学生提问。他告诉九派财经记者,辨别机器和人写出的论文,关键在于论文审稿人,也就是把关人。“按照最原始的、高质量的标准,我不管你是不是拼凑,第一个,你的研究问题有没有价值?第二个,你的研究方法是不是能解决你的研究问题?”提问形成的互动过程能够让他很快地识别论文是不是人写的。

【3】清华博士:ChatGPT不能产生新的知识,无法拓展人类知识边界

然而,强大如ChatGPT,目前也难以替代人类的创造性工作。

清华大学数学系在读博士研究生王鹏(化名)没有感受到ChatGPT对数学论文发表产生的影响。他说:“ChatGPT只能对已有的知识综合搜索,无法产生新的知识。而学术论文是要产出新的知识,拓展人类的知识边界,这方面我认为目前的ChatGPT是无能为力的。”

2月13日,创新工场董事长兼CEO李开复在社交平台引用其作品《AI未来进行式》中的内容,点明了诸如ChatGPT等AI工具的三大短板:创造力、同理心和灵巧性。

目前,ChatGPT所有的回答都基于已经存在的数据分析,统计、经验研究等方向是其优势。但是,如果需要探讨更深层次的问题,做实证研究、定性研究,需要进行主观判断,ChatGPT这类人工智能工具很难做到。

“本质上ChatGPT就是一个工具,类似谷歌学术,论文的核心内容还是需要研究者自己写出的。”王鹏说。

九派财经见习记者 黄依婷

编辑 郭梓昊

【来源:九派新闻】

声明:此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:jpbl@jp.jiupainews.com