复旦清华联合顶刊发文|ChatGPT:潜力、前景和局限
研博论文

复旦清华联合顶刊发文|ChatGPT:潜力、前景和局限

来源:信息与电子工程前沿FITEE 作者:周杰 柯沛 邱锡鹏 黄民烈 张军平 编辑:好困 【新智元导读】为更好地理解ChatGPT,这里我们简要介绍其历史,讨论其优点和不足,指出几个潜在应用,最后分析它对可信赖人工智能、会话搜索引擎和通用人工智能(artificial general intelligence, AGI)发展的影响。 最近,OpenAI发布了对话生成预训练模型Transformer(Chat Generative Pre-trained Transformer,ChatGPT)(Schulman et al., 2022),其展现的能力令人印象深刻,吸引了工业界和学术界的广泛关注。这是首次在大型语言模型(large language model, LLM)内很好地解决如此多样的开放任务。 ChatGPT成为历史上增长最快的消费者应用程序,在发布后两个月内,吸引了1亿月度活跃访客(Hu,2023)。自发布以来,因其高超的对话能力,已引爆社会关注。它可以回答后续提问,拒绝不当请求,挑战错误前提,并承认自己错误(Schulman et al., 2022)。它获得许多涌现能力,如高质量对话、复杂推理、思维链(CoT)(Wei et al., 2022b)、零/少样本学习(语境学习)、跨任务泛化、代码理解/生成等等。 论文地址:https://link.springer.com/article/10.1631/FITEE.2300089 这些令人印象深刻的能力,ChatGPT是如何获得的? 其主要得益于大型语言模型,它利用语言模型(LM)在大规模数据上训练巨大的神经网络模型,如Transformer(Vaswani et al., 2017)。语言模型旨在根据上文预测下一个词的概率,是文本中的自监督信号。 互联网上存在大规模文本数据,所以通过语言模型对模型进行预训练是顺理成章的。现有研究表明,模型规模和数据量越大,性能越好。当模型和数据规模达到一定程度时,模型将获得涌现能力。 例如,OpenAI发布的GPT-3(Brown et al., 2020)有1750亿个参数。它的预训练采用超级计算机(285 000个CPU,10 000个GPU)在45 TB文本数据上完成。 而模型也由此在零样本学习任务上实现了巨大性能提升,具有小模型所不具备的语境学习能力。随后,更多策略——如代码预训练(Chen et al., 2021)、指令微调(Wei...
ChatGPT检测器频繁冤枉无辜学生,竟有210万教师在用
本科论文

ChatGPT检测器频繁冤枉无辜学生,竟有210万教师在用

编辑:桃子 【新智元导读】被AI冤枉的你,还好吗? 当你被AI无辜扣上「作弊」的帽子,作何感想? 这件事恰恰发生在了一位高三学生Lucy Goetz身上。原本她写的一篇社会主义原创论文得了最高分。 但是,Turnitin公司的AI写作检测器竟说,Goetz论文结尾是用ChatGPT生成的。 Goetz震惊道,「我很高兴能和老师们保持良好的关系」。 简言之,还好老师了解我,不然跳进黄河都洗不清了。 而更令人惊讶的是,这个ChatGPT检测器现在已经被210万名教师使用。 AI无法打败AI Goetz的论文中被标记出的部分属于异常情况,但这表明检测器有时会出错。 显然,AI是无法打败AI的。这对许多学生来说可能产生灾难性的后果。 为了测试Turnitin的检测器,华盛顿时报的记者Geoffrey A. Fowler对Goetz在内的5名高中生进行了测试。 他们创作了16篇涵盖真实、AI生成,以及混合来源的论文样本。 结果如何呢? Turnitin的检测器至少在一半以上的样本中出现错误,仅是准确识别出了其中6篇,但在3篇上的检测都失败了。其中就包括对Goetz原创论文中8%内容的标记错误。 对于剩下的7篇,Fowler称,「我只会给它部分分数,因为它的判断大致正确,但错误识别了一些ChatGPT生成或混合来源的写作部分。」 然而,Turnitin声称其检测器的整体准确率达到98%。该公司还表示,在其自身测试中,类似Goetz论文的情况(即假阳性)发生的概率不到1%。 Turnitin的AI检测器详细页面会分配一个总分,并突出显示疑似AI生成的句子。该公司表示,它故意用蓝色而非红色标记疑似AI生成的段落,并在得分下方链接教师资源。 加州康科德市Goetz的AP英语课老师Rebecca Dell表示,Turnitin标记AI文本的系统并不总是有效,这令人担忧。 与抄袭指控不同,AI作弊没有源文件作为证据,这最容易让老师对学生带有偏见。 或许并不是每个人都像Goetz那么幸运。 Goetz表示,「对于学生来说,被指控AI作弊尤其令人恐惧。除非你的老师了解你的写作风格,或者对你非常信任,否则没有办法证明你没有作弊」。 AI检测为何如此困难 自ChatGPT面世以来,已经被许多高校的学生和老师用在日常的作业和教学中。 然而,如果不加以限制,ChatGPT将会变成史上最强大的作弊工具,可以帮助学生们写作业,甚至是完成考试论文。 为了反侦察,一款简单易用的检测器成为老师期盼的东西。一位22岁普林斯顿大学的学生Edward Tian,就自行开发了一款检测器——GPTZero。 甚至,OpenAI官宣推出一个新工具,名为AI Text Classifier的文件检测器。 但是,这些检测器的表现并不如人意。 检测出AI创作的内容听起来很简单。但当给你一封手写邮件和ChatGPT生成的邮件后,我们几乎无法辨别。 Turnitin的人工智能副总裁Eric Wang称,用软件检测人工智能写作涉及统计学。从统计学的角度来看,人工智能与人类的区别在于它极其稳定地处于平均水平。 直白点讲,AI水平很稳定。然而,实际上并非这样一个道理。 「像ChatGPT这样的系统就像是自动补全的高级版本,寻找下一个最可能要写的单词。这实际上就是它为什么读起来如此自然的原因。AI写作是人类写作中最可能的子集。」 Turnitin的检测器便会「识别出书写过于一致的平均情况」。挑战就在于,有时候有时人类的写作可能确实看起来处于平均水平。 在经济学、数学和实验室报告中,学生倾向于遵循固定的写作风格,这意味着他们更有可能被误认为是AI写作。 这可能就是为什么Turnitin错误地标记了Goetz的论文,因为它的内容涉及到经济学。 Wang表示,Turnitin努力调整其系统,在标记某个句子为AI生成之前需要更高的置信度,以便在这方面犯错。 并称,自己家的软件已经有了很大的进展。「我首次在1月下旬测试Goetz的论文时,该软件识别出其中大约50%是AI生成的。Turnitin在3月下旬再次通过其系统运行我的样本,那时只标记了Goetz论文中的8%为AI生成的。」 Turnitin的检测器也面临其他重要的技术限制。...
「每日社科」ChatGPT走红后,谁的“饭碗”不保了?
本科论文

「每日社科」ChatGPT走红后,谁的“饭碗”不保了?

在2022年11月末,一家位于美国旧金山,名为“OpenAI”的人工智能研究机构在没有大肆宣传的情况下公布了一款名为“ChatGPT”的免费应用。从界面上来看,这个在网页上运行的人工智能对话机器人程序略显寒酸,用户在一个对话框里输入问题,随后网页上会逐字逐句打出它的回答。它的反应速度看上去并不算太快。 经过一段不算长的平静期之后,ChatGPT忽然在全世界范围内引发出一种爆发性的效应。兔年春节尚未结束,在中文网络上关于ChatGPT的讨论就开始愈发火爆。人们对它不乏调侃——这个聊天机器人往往会对一个难度不大的问题给出错误答案,一本正经地说瞎话;在调侃之外更多的则是惊叹——ChatGPT针对各种问题所进行回答的语言基本上已经看不出机器生成的生硬,而是标准的书面化,甚至是口语化的日常语言;其针对一些问题所产生的答案更是显得逻辑清晰,结构完整;甚至对于创作诗歌、小故事等要求往往也完成得远超人们的预期。 网友和ChatGPT讨论27是否是质数 这款展示出超强“智能”的聊天机器人迅速在全世界范围内成为一款“现象级”的应用。瑞银集团的一份研究报告显示,在ChatGPT推出两个月之后,它在2023年1月末的月活用户就已经突破了1亿,成为历史上用户增长速度最快的消费级应用程序。相比之下,其他几款也曾经风靡全球的应用,例如TikTok达到1亿用户用了9个月时间,Instagram则花了2年半时间。可以说,ChatGPT在短时间内风靡全球,即便对于它的开发者们来说也是一个意外。发布这个应用本来是被看作一次“研究预览”(research preview)。“我们并不想过分宣传,说它是一个重大的基础性进步。”ChatGPT的开发者之一利亚姆·费德斯(Liam Fedus)在接受媒体采访时这样说。 对于大多数人工智能领域的研究者来说,ChatGPT的表现确实堪称优异,而人们对其表现出的极高热情和好奇更是出乎预料。这种出乎意料的全球性热潮也必定会对整个产业造成一系列的连锁效应。这款对话机器人所应用的并不算是最新技术,而是基于2020年构建的一个人工智能模型“GPT-3”。开发者们在此基础上再进行细致调整,并且加入一些对话数据对其进行“训练”,随之诞生了“ChatGPT-3.5”(3.5是其版本号)。 《银翼杀手2049》剧照 对于大众来说,人们已经开始将ChatGPT的出现与之前在人工智能领域的几个标志性事件相提并论:1997年5月,IBM公司开发的“深蓝”(Deep Blue)国际象棋程序打败了当时的国际象棋世界冠军卡斯帕罗夫;2016年3月,由DeepMind公司开发的围棋人工智能程序AlphaGo打败了当时的围棋世界冠军李世石;而几年之后出现的ChatGPT又将人们对于人工智能的关注度提升到了风口浪尖。也有人将这款聊天机器人的出现与iPhone当年的横空出世相提并论——这绝不仅仅是一款产品而已,而是改变了全世界使用互联网的方式,标志着一个新时代的来临。 大多数对于人工智能,尤其是“自然语言处理”(Natural Language Processing)技术并不了解的普通人在使用过ChatGPT之后,往往会产生出三个问题:这款聊天机器人究竟是如何做到语言流畅、逻辑清晰甚至还展现出了一定的创作能力?通过类似的技术,人工智能在未来能够达到怎样的高度,还能完成怎样的任务?它的出现对人类社会将造成怎样的转变,很多工作(尤其是自己目前所从事的工作)会不会很快被人工智能所取代? 第一波热潮尚未过去,2023年3月12日,更新版本的“ChatGPT-4”出现。而微软公司也很快召开发布会,宣布使用与ChatGPT类似的技术,与其办公软件相结合,推出“Microsoft 365 Copilot”——目前还很难判断它将成为办公室文员的得力助手还是天敌。从发布会上所展示的性能来看,实际上大多数办公室文员的工作如撰写标准文档、制表甚至是对文档进行总结归纳等任务,都可以由这款办公软件自动完成。除此之外,一些基于类似技术的人工智能绘图应用也开始让人们乐于尝试。虽然与文字应用相比,目前看来人工智能的绘图能力还有明显欠缺,但也能够不时展现出绝佳的创意。 中国公司也在迅速跟进。2023年3月16日,百度公司召开发布会,推出聊天机器人“文心一言”。这款产品很容易被看作是对标ChatGPT而推出的中国版本。对其有过使用经验的人也自然会把两款产品放在一起来比较,目前收获的评价褒贬不一。 ChatGPT对于人类社会的影响可谓立竿见影。已经有多个学术期刊声明不接受这款人工智能机器人作为论文的作者,也有期刊表示允许作者使用ChatGPT对论文进行整理和润色。更有大学老师略带调侃地评价,现在很难判断学生交上来的论文作业是自己写的还是由ChatGPT生成,只能粗略判断:写得太工整、逻辑太清晰的作业应该是由ChatGPT完成的。 《她》剧照 在这股热潮稍微冷却一些之后,人们对于人工智能机器人的反应显得颇为复杂。有人感到恐惧,认为人类最重要的特征——进行思考和推理的能力——如今已经显得不再独特。由此便很容易联想到尼采在《查拉图斯特拉如是说》中的名言:“人之所以伟大,乃在于他是桥梁而不是目的。”有人为之欢呼,认为无论会产生出怎样的后果,一个全新的时代正在到来,人工智能在所有领域全面超越人脑只是一个时间问题,是一个“数学上的必然”(mathematical certainty);也有人认为人工智能已经完全超越了人脑,达到了所谓的“奇点”(Singularity)…… 必须承认,人工智能已经不再是供人展望和畅想的未来。无论你对人工智能持有怎样的看法,怀着怎样的情绪,它已经成为现实,成为我们生活中的一部分。为了完成这组报道,本刊记者试图深入到行业内部去了解人工智能研究最前沿的信息。目前人工智能研究最有活力的前沿区域当属位于硅谷的各大科技公司。不过,无论是微软、谷歌、Meta,还是位于伦敦、已经被谷歌收购的DeepMind公司,都对于采访要求保持沉默或是直接拒绝。其中的原因其实也不难想象:在当今人工智能产业正在发生剧变的时代,各大科技公司都有太多暂时不便公开的研究项目和商业计划。 我们决定转而去探访进行人工智能研究的学术中心。“神经网络三剑客”中的两位:杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(YoshuaBengio),分别在加拿大的多伦多和蒙特利尔建立了向量研究所(Vector Institute)和蒙特利尔学习算法研究所(MILA)。这两家学术研究机构会聚了大量人工智能领域,尤其是神经网络方面的专家,堪称世界人工智能研究的两大中心。我们对这两家机构做了实地参观,并对这里的多位学者进行了采访。 除此之外,本刊记者还对国内的科技公司以及人工智能领域的相关人士进行了采访。以色列历史学家、《人类简史》作者尤瓦尔·赫拉利也接受了本刊独家专访,谈论了人工智能所需要的全新的道德规则。在这次对学术界和工业界不同研究人员的采访中,我们感触最深的地方就在于,虽然大家都在朝着同一个方向努力,也都相信人工智能的发展会越来越好,但是对于一些根本性问题的看法却往往大相径庭。未来正是这样,在种种不确定中开始逐渐显现。 自己的工作有没有受到威胁,究竟什么工作最可能被人工智能所取代?正如我们的采访对象,英属哥伦比亚大学的克鲁恩教授所说,“颇有讽刺意味的是,人工智能来自数字世界,如果你现在的工作需要写很多的文字,发很多的邮件,制作很多的PPT,每天花很多时间使用电脑……那么你的工作很可能是最先会被人工智能所取代的。而对于人工智能来说,更难得工作在于如何系鞋带,如何拧螺丝,如何打扫房间……可以说,相比于清洁工的工作,律师的工作会很快就被人工智能所取代。” 说到底,如果你的工作需要每天花费大量时间用于操作电脑,而且大多属于重复性,不需要太多的创造力,那么你的工作就非常可能最先被人工智能所替代。而目前看来,通用型人工智能,尤其是人工智能机器人还没有成为现实,因此大多数的体力劳动仍然无法被替代。 《人工智能》剧照 人工智能和人类究竟该是怎样的关系?很多人把这理解为一种竞争,也有人希望人工智能可以成为人类的好帮手。在医疗保健、法律、教育等行业,目前看来人工智能还不能替代人类的工作,却可能成为人类的好帮手。 长远看来,人工智能更可能成为人类的一个伴侣。在经过了数百万年的进化之后,人类拥有了复杂的大脑,也成为了地球孤独的主人。人类大脑的构造堪称宇宙中最为复杂的机器,其中神经元的数量堪比星系中恒星的数量。如今,人类正在利用这个无与伦比的大脑,试图建造一个能够与自己进行平等交流,甚至可能超越自己的机器。或许人工智能最重要的意义,就在于让人类感觉在这个空荡荡的宇宙中不再孤独。 ▌来源:三联生活周刊 举报/反馈
是“神器”还是“魔盒”?ChatGPT将给我们带来哪些挑战与机遇
本科论文

是“神器”还是“魔盒”?ChatGPT将给我们带来哪些挑战与机遇

中国网财经4月13日讯 (记者 谭梦桐)近年来,随着区块链、元宇宙,再到ChatGPT的爆火,越来越多的应用让人们感受到了人工智能的强大。拥抱科技的同时,不少人也表示担忧。ChatGPT是否会取代人工?生成式AI技术的发展,能推动哪些产业进步?AIGC(利用人工智能技术来生成内容)领域如何监管?中国网财经记者采访到了多位专家。 ChatGPT是什么?能为我们带来什么? ChatGPT是美国OpenAI公司研发的聊天机器人程序,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、文案、代码,写论文 等任务。 浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林介绍,ChatGPT通过三步走来优化其行为,除了利用海量语言数据、海量标注的语言范例来学习外,还需通过强化学习算法对ChatGPT回答进行打分,一方面让ChatGPT的回答具有随机性,另一方面让ChatGPT更大概率用最优的方式回答问题。 盘和林认为,ChatGPT比过去的AI更智能,不仅仅是聊天,它还可以写代码、写文案,GPT-4的多模态模型中还加入读图功能,它也可以辅助搜索,同样的功能可以移植到办公软件领域,移植到医学领域,移植到新闻广告领域。 “我们认为ChatGPT将带来生产力的变革。”盘和林表示。“因为所有领域都可以用GPT来提升效率。人类将记忆性、重复性的工作交给GPT,自己承担创造性的工作,这大大降低了人类创新创造的门槛。” ChatGPT是否取代人工?“神器” 不过,ChatGPT为生产力带来变革的同时,也带来了隐忧。 据媒体报道,近日,高盛一份最新的研报显示,ChatGPT等AI的最新突破,将给全球劳动力市场带来重大颠覆,全球预计将有3亿个工作岗位被生成式AI取代。 “生成式AI技术会冲击工作内容重复度高、难度低的行业。” 中国信息通信研究院云计算与大数据研究所副所长魏凯在接受中国网财经记者采访时表示,“诸如人工客服、初级程序员、文案编辑等。” 这部分劳动群体该如何应对AI代替人工造成的就业担忧? 魏凯认为,面对这样的冲击,劳动者们未来需提升个人的思维力、实践力、创造力。 “劳动者需要将个人的技能经验进行系统化总结,形成独创性经验。” 魏凯举例说明,例如生成式AI中的文本生成类应用,目前其生成内容仍存在逻辑不清晰、回答不准确的问题,需要经验丰富的人士进行润色。同时,劳动者也可以快速掌握使用方法,让生成式AI应用成为生产力工具。再例如一些简单的编程代码可以交给生成式AI应用产出,技术人员可以专注更复杂的算法开发、研究。基于已有的经验,艺术设计方向的资深人士可结合自己的思路构建提示词,促使生成式AI应用产出更具创意的作品。 生成式AI 技术的发展,能推动哪些产业进步? 随着ChatGPT的爆火,生成式AI带来产业机会,各行各业纷纷布局。 从去年11月ChatGPT发布开始,国内大厂便率先关注到生成式AI技术,各个大厂晒应用、发产品、组建团队,抢占技术应用的高地。 例如,中国三大电信运营商近期纷纷表示参与类ChatGPT服务带来的机遇中。在金融领域,也有多家银行积极考虑将类ChatGPT为代表的生成式对话产品引入银行业务。据悉,目前包括客户服务、数据分析、投资建议、半自动程序编写等业务已可以接入ChatGPT,未来随着技术进一步发展,效果进一步提升,应用场景会逐渐丰富。 “从应用角度看,生成式AI能够利好文娱行业、生物医药等多个行业。”魏凯具体分析,文娱行业中,基于文生图、文生视频、文生3D模型应用,生成式AI能够加速设计作品的制作过程,提升游戏、动漫画面的制作效率。生物医药行业中,目前国外一些大型制药公司尝试用生成式AI设计针对疾病的蛋白质模型,生成式AI也有助于缩短药物研发周期。 “剑桥大学的研究人员利用ChatGPT确定了一个治疗阿尔茨海默病的新靶点。”魏凯举例。 从要素角度看,伴随生成式AI技术发展,合成数据或将促进AI数据集质量提升。生成式AI应用训练时使用合成数据学习内容、对象,并生成全新内容,可有效缓解数据短缺问题,尽可能降低数据投毒风险、保证生成结果安全可信。 盘和林认为芯片、CPO光模块、ICT通信设备、智算中心、云计算服务商、AI应用企业、算法平台、互联网平台企业等上下游产业均将受到生成式AI发展带动进步。 值得一提的是,在AI时代背景下,东数西算工程的意义显得更加重大。国信证券认为,西部地区得天独厚的资源禀赋将成为AI时代最宝贵的“降本”资源,东数西算工程使降低“数据存储成本”变成“降低社会整体运行成本”。 盘和林指出,生成式AI需要智算中心,智算中心可能需要距离需求方更近以降低时延,所以,一方面东数西算为生成式AI提供了算力支持,有效推动发展,另一方面东数西算布局也会随着智算算力特点,有所调整,将数据中心和智算中心区分开来。  AIGC领域如何监管? 3月31日,据央视报道,意大利个人数据保护局表示,已就OpenAI聊天机器人ChatGPT涉嫌违反数据收集规则展开调查,即日起禁止使用ChatGPT,并暂时限制OpenAI处理意大利用户数据。 此外,欧盟执法机构欧洲刑警组织警告ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪;非营利组织人工智能与数字政策中心(CAIDP)也向美国联邦贸易委员会(FTC)投诉称,GPT-4“有偏见性,欺骗性,对隐私和公共安全构成风险”。 在国内,AIGC(利用人工智能技术来生成内容)也同样存在诸多风险。包括隐私风险、人工智能生成内容滥用风险、数据缺失或错误风险、知识产权风险等等。 近日,中国支付清算协会发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》,引发业内关注。协会倡议业内提高思想认识,依法依规使用;不上传关键敏感信息;会员单位加强内部管理和引导。 不过,聚焦AIGC存在的风险,我国现有的监管体系已经成形。在法律法规层面,一方面是通过专门性综合性立法对网络运营者在使用人工智能技术的义务和责任进行规范,另一方面则是切实聚焦到人工智能领域的算法、模型、技术,进行具体规范。 4月11日,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下称“意见稿”),并向社会公开征求意见。该意见稿从个人信息保护、数据来源合法性、知识产权保护、约束不正当竞争行为等方面进行规范。 该意见稿还提出,生成式AI提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。此前,《互联网信息服务深度合成管理规定》的监管范围为深度合成技术、深度合成服务,仅作为规范AIGC技术及服务的参考。 北京市京师律师事务所律师赵东在接受中国网财经采访时表示,在未来一段时间内,网络三法(《网络安全法》、《数据安全法》、《个人信息保护法》)及其规定的相关制度依旧是新技术监管的重要依据。按照网络三法对新技术的产生和运用进行严格监管,不仅有利于维护网络安全、数据安全和个人信息安全,也有利于整个行业的健康、有序发展。 盘和林认为,意见稿的发布,主要是明确了生成式人工智能先规范再发展的总基调,总体上是为了完善生成式AI的应用环境,为生成式AI在国内应用创造条件。但从另一方面看,当前意见稿内容还比较简化,部分条款的线条还比较粗,他建议未来需要进一步完善意见稿内容,防止“一管就死、一放就乱”的情况在生成式AI领域出现,在生成式AI的发展和安全有序推进之间找到平衡点。 “对于AIGC的监管有必要,监管目标不应该是AI的人格,而是用AI的人,了解他们想要达到的目的。” 盘和林直言。 赵东认为,现阶段的监管措施,网络三法规定的基本原则、制度和要求,是维护网络安全、个人信息安全、数据安全的“最低要求”;有关制度、规则并不限制新技术的发展,反而希望新技术促进以数据为关键要素的数字经济发展,为经济社会发展全面赋能。 来源:中国网财经 举报/反馈
ChatGPT写论文,可行还是隐患?高校教师如何识别?
研博论文

ChatGPT写论文,可行还是隐患?高校教师如何识别?

国内高校近期关注到学生使用ChatGPT撰写论文的现象,学术期刊相继发布说明,表示暂不接受其单独署名,并要求在使用人工智能工具写作时明确声明创作过程和引用论证。测试显示,ChatGPT在某些人文社科类论文中生成的大纲得到了高校教师的及格评价,但理工科论文中的AI痕迹难以识别,且存在抄袭风险。教授郑忠明建议通过提问方式辨别机器撰写,并认为人工智能目前难以替代创造性工作。ChatGPT等工具对学术论文的影响仍待探讨,论文的核心内容仍需研究者自己完成。
本科论文

心理学家Eka Roivainen对ChatGPT进行了智商测试,发现ChatGPT在语言能力方面表现优秀,适应性强且无应试压力。然而,在需要逻辑推理和心理理论能力的任务中,ChatGPT显示出明显的不足,如无法处理复杂谜题和缺乏深入理解。这项研究警示我们质疑现行智力测试的有效性,并对人工智能可能带来的心理学工作影响进行反思。
ChatGPT论文潮?高校教师如何辨真伪?
期刊论文

ChatGPT论文潮?高校教师如何辨真伪?

国内高校近期关注到学生使用ChatGPT撰写论文的现象,学术期刊如《暨南学报》和《天津师范大学学报》相继发布指导声明,明确表示暂不接受该模型署名文章,并要求在论文中明确说明使用情况。教师测试显示,尽管ChatGPT能在短时间内生成论文大纲,但其内容可能粗糙、难以理解研究意义,理工科论文中的AI写作更难被识别。对此现象,部分教师呼吁合理使用并加强审稿,而专家认为人工智能尚无法替代创造性工作,强调学术诚信和人的道德控制仍是关键。
科技折叠下,诗歌如何拣选人性?诗人戴潍娜的深度思考与文学之问
研博论文

科技折叠下,诗歌如何拣选人性?诗人戴潍娜的深度思考与文学之问

第六届成都国际诗歌周正在举行,中外诗人们围绕“终极关怀:人类的生命与生态”主题交流互动,同时探索成都的历史文化与诗歌底蕴。青年诗人戴潍娜对此发表看法,指出科技对文学的影响导致面对面交流的减少和生存空间缩小,她担忧这可能影响人性和文学的未来发展。戴潍娜通过分析ChatGPT现象,强调了在信息时代“拣选”词语的重要性,认为未来的艺术将更加关注筛选有价值的内容。她还提到,尽管互联网碎片化知识丰富,但人们仍需要深度感知和情感连接,而诗歌能在这方面发挥重要作用。