ChatGPT时代:论文写作与学术诚信的挑战
研博论文

ChatGPT时代:论文写作与学术诚信的挑战

ChatGPT是一种由OpenAI开发的人工智能聊天机器人模型,可进行对话和协助人类完成任务。然而,将其应用于论文写作和润色可能引发学术不端行为,多所大学已采取措施抵制该行为。此外,ChatGPT write的论文存在简单句、句式少变化等问题,其论文润色可能不如人类 writing质量高。
ChatGPT论文新挑战:AI写作该不该被列为作者?
研博论文

ChatGPT论文新挑战:AI写作该不该被列为作者?

随着ChatGPT的普及,人们开始关注其在学术领域的应用。北密歇根大学哲学教授发现论文可能是AI生成的,促使一些学校如《护理教育实践》期刊和巴黎政治学院禁止使用或明确说明使用AI工具,以防止抄袭和欺诈问题。然而,对此态度不一,普林斯顿大学的学生开发了检测工具,而沃顿商学院的莫力克副教授则鼓励学生利用ChatGPT提升写作能力,但强调需批判性思考并验证信息来源。
如何看待ChatGPT助考?知识合法‘作弊’吗?
本科论文

如何看待ChatGPT助考?知识合法‘作弊’吗?

本文探讨了现代教育中对作弊行为的矛盾定义,指出将知识临时记住不视为作弊,而抄袭论文却被认可的情况,揭示了教育系统可能过于追求标准答案而忽视实质学习。文章通过回忆记忆卡片的经历,讽刺地指出教育正在使学生像机器一样运作,并质疑只有当不靠作弊也能获取更有价值的知识时,学校教育的诚信才得以体现。文中还提供了复习工具Anki的相关链接和间隔重复记忆系统的介绍,暗示了更有效率的学习方式可能才是应对教育问题的关键。
ChatGPT论文查重难题,AI真能逃过一劫?
研博论文

ChatGPT论文查重难题,AI真能逃过一劫?

本文作者无锡市大数据管理局局长胡逸探讨了ChatGPT在社会中普及引发的问题,引用了北密歇根大学教授安东尼•奥曼和《护理教育实践》杂志的社论为例,展示了ChatGPT被用于学术写作的事实。Nature和巴黎政治学院相继出台限制规定,禁止将ChatGPT列为论文作者,并提醒使用时需明确说明。纽约市公立学校也发布了禁令,认为ChatGPT不能替代培养批判性思维。对此,一些教育工作者如宾夕法尼亚大学沃顿商学院的莫力克教授则鼓励合理利用ChatGPT作为辅助工具,强调学生需要学会验证信息来源。
AI大潮来临,ChatGPT在中国市场遇冷,谁将笑到最后?
研博论文

AI大潮来临,ChatGPT在中国市场遇冷,谁将笑到最后?

近两年来,一款名为ChatGPT的聪明AI能助学生做作业、设计师做创意、研究生写论文和IT人士写代码等,甚至还能帮忙应聘, but its chinese ability is limited and it can not solve the legal and civil engineering questions in China. A Chinese AI project, "Wenxinyiyan" (ERIE Bot), developed by Baidu, is expected to be launched soon and may surpass ChatGPT in intelligence.
AI在中国:ChatGPT与文心一言的较量
研博论文

AI在中国:ChatGPT与文心一言的较量

文章主要介绍了人工智能助手ChatGPT在中国市场的发展及面临的挑战。尽管ChatGPT在英文领域表现出色,但在中国市场,它的表现并未达到预期。原因在于,目前的AI技术,包括ChatGPT和谷歌的竞品AI Bard,在中国的中文环境数据训练不足。相比之下,百度即将发布的人工智能“文心一言”在研发工作已进入冲刺阶段,有望在未来引领人工智能热潮。
你关注的来了!吴军博士:ChatGPT的能力边界在哪?
研博论文

你关注的来了!吴军博士:ChatGPT的能力边界在哪?

ChatGPT在今天被热炒,主要的原因不是因为它能和人聊天,或者能帮助人做作业。其实做作业这件事它做得并不好,虽然有些中学和大学的问题它能够解决,但是对于绝大部分问题,它给出的答案都是车轱辘话。 那ChatGPT被热炒的原因是什么呢?其实,ChatGPT真正可怕的地方在于,按照当前的速度发展下去,不断扩大应用领域,它可能可以解决很多原本需要人类才能解决的问题。 现在问题来了,都有哪些问题是ChatGPT能解决的?哪些是它不能解决的呢? 前面说了,ChatGPT的基础是语言模型,因此,它的极限也被语言模型的极限所限制。这一讲,我们就看看语言模型都能做什么事情。理解了这个问题,你也就知道了ChatGPT的能力边界。 我把语言模型能做的事情分为三类: 第一类:信息形式转换 第一类是将信息从一种形式转换为另一种形式,无论是语音识别还是机器翻译,都属于这一类。 在语音识别中,输入的信息是语音声波,输出的信息是文字,它们是一一对应的,因此是信息在形式上的转化。机器翻译也是如此,是从一种语言的编码,转换成另一种语言的编码。 不过值得指出的是,任何形式的信息转换通常都会损失一些信息。比如,在机器翻译中,语言中所蕴含的文化常常就损失掉了。这倒不是机器的问题,在用人进行的翻译的时候,也经常会出现这种现象。比如,唐诗翻译成英语往往就显得乏味,英文的诗歌翻译成中文,也常常显得平淡无奇。有些贯通中西的翻译家,会试图把文化的元素加回去,但是计算机做不到这一点。 在这一类事情中,一个通常不被人们注意的应用是在医学领域,比如基因测序。 任何物种的DNA都是四种碱基ATCG的组合,当然,它们不是随意排列的,并非所有的组合都是合理的。比如,不同物种同一功能的碱基片段其实是差不多的,每一个基本的单元就有点像文本中的文字。因此,根据一段碱基,有时候就能识别下一段碱基。 当我们进行基因测序时,要把缠绕在一起的DNA序列剪开,一段段地识别。而剪开的时候,就有可能剪坏,因此,通常都是把DNA复制很多份,剪开以后做对比,以免每一份都没有剪好,识别错了。 当然,对于没有剪好,或者识别得不是很清楚的片段,就可以通过语言模型识别、纠正错误。只不过这项工作所使用的语言模型是基于碱基对的,不是基于文字的。 此外,还有一件事也属于这个范畴,就是让计算机写简单的程序。 2014年,著名的机器翻译专家奥科在离开Google之前领导过这样一个项目,就是让人把要做的事情描述清楚,然后让计算机写Python程序。 奥科的想法很简单,既然能够让计算机将一种人类语言的文本翻译成另一种人类语言的文本,就应该能将自然语言描述的文本翻译成机器语言的脚本,也就是程序。 在2014年的时候,奥科的团队已经能把功能描述清楚的简单任务书变成Python程序。不过,当时的困难是,人其实也无法把自己的想法非常准确地用自然语言写清楚。 从信息论的角度看,如果有了完美的算法,这一大类问题都可以得到完美的解决。对于这些事情,最终人是做不过机器的。 第二类:根据要求产生文本 语言模型能做的第二类事情是根据要求产生文本。今天ChatGPT做的主要工作,像回答问题、回复邮件、书写简单的段落,都属于这一类。 这一类工作,输入的信息量明显少于输出的信息量。从信息论的角度看,这会产生很大的不确定性,需要额外补充信息。而补充的信息的来源,其实就是语言模型中所包含的信息。因此,如果语言模型中包含了某个话题的很多相关信息,它就可以产生高质量的文本;否则,它给出的答案或者所写的内容就不着边际。 这一类应用对于语言模型来讲是最难的。这倒不是因为语言模型做得不够好,而是因为站在信息论的角度看,不可能通过少量信息得出更多的信息。因此,这类工作其实或多或少都需要人工干预。 今天,除了ChatGPT,还有很多类似的写作软件,它们写出来的内容看上去都不错。但是,在这些软件背后,其实有一个由人组成的编辑团队,他们会从几十篇候选文章中挑出一篇提供给用户。今天,在硅谷地区还有一些评估内容质量的外包公司,他们有专人评估计算机产生的文本质量,然后反馈给计算机继续学习、改进。 我就ChatGPT的写作水平,专门询问了两位ChatGPT的深度用户。他们本身就是研究机器学习的博士,出于工作的需要,天天都在分析ChatGPT的写作水平。 他们告诉我,一种最大化的发挥ChatGPT写作能力的做法,就是你和它反复迭代。他们是这样做的: 先给ChatGPT提要求,让它写一篇文章。绝大部分人到此为止了,但是他们会对机器写的文章提出新的修改要求,然后它就会重新给你写,然后你再提要求。这样一来二去,几次迭代下来,文章质量就大有提高了。 这两个人一个是美国人,一个是中国人,他们对ChatGPT最终写出来的文章评价差异还是很大的:美国人认为,质量一般,可以作为邮件发出,但不精彩,不能作为自己的写作,否则别人会觉得自己水平太低;而中国人因为母语不是英语,觉得它写得不错,省了自己很多时间,虽然同样水平的文章他也能写出,但是可能要花更多的时间选择用词和语法。 当然,有人可能会觉得,ChatGPT对于一些专业问题给出的答案,甚至比专家还好。这种现象是存在的,正如我们前面所讲,它学过的知识可能是我们的成千上万倍。但那是因为其他专家已经就所提出的问题进行过了研究,有现成的知识可以提供给它。 比如,你如果问计算机“天为什么是蓝色的”,能得到完美的答案,那是因为之前有物理学家进行了研究,并且他们的解释得到了更多物理学家的认可。也就是说,还是有人工干预在先。甚至于很多问题,其实在互联网上就有比较好的问题答案配对。ChatGPT这一类软件只是把它们整理出来。 相反,硅谷几家大公司的研究发现:ChatGPT做小学算术应用题,甚至参加一些语文考试,比它参加高中的AP课考试,以及研究生入学考试,比如医学院的MCAT考试,成绩要差得多。原因就是,那些小学生的题它没见过,而AP课和MCAT考试都是标准化的,有很多过去的考试题可以找到。 不过,虽然ChatGPT不能自己创造答案,但它还是很有价值的,它可以减少人的工作量。这就如同你在参加物理考试时,计算器可以节省时间一样。但是如果你不懂物理学的内容,即便有了趁手的工具,也照样考不出来。 第三类:信息精简 语言模型能做的第三类事情是把更多的信息精简为较少的信息。 比如,为一篇长文撰写摘要,按照要求进行数据分析,分析上市公司的财报,都属于这方面的工作。 这一类工作,输入的信息多,输出的信息少,因此只要算法做得好,就不会出现信息不够用的问题。 将信息由多变少,就会面临一个选择,选择保留哪些信息,删除哪些信息。 比如,为一本书写摘要,不同的人会写出不同的摘要,他们对于书中哪些是重点内容、哪些是次要内容会有不同的看法。类似的,对于某个上市公司的季度财报,不同的分析师会有不同的看法,他们会按照自己的想法挑选数据作为证据。 同样的,把更多的信息进行精简,也会得出不同的结果,这就要看算法是如何设计的,它所依赖的语言模型之前都统计过什么样的信息等等。 对于这一类工作,最终计算机会做得比大部分人更好。这不仅是因为计算机阅读和处理数据快,语言模型强大,更是因为它在做摘要、做分析或者剪辑视频时,能够做到比人客观。 比如,今天很多人分析财报,会有先入为主的看法,然后根据自己的看法选择数据,有意无意忽略那些重要但不合自己想法的数据。还有很多人在做摘要时,喜欢断章取义。这些问题,计算机通常都能够避免。 但是,计算机的算法也有一个问题,就是缺乏个性化。 我们人类,通常不同的人对于同一本书会有不同的看法。同样是阅读《红楼梦》,有的人把它当作宝黛爱情故事来读,有的人把它当作官僚家庭的生活来读,也有人将它当作中国农耕社会的缩影来读。类似地,同样是将一部电影剪辑成短片,不同人挑选的片段也会不同。 但是,机器做这种事情,结果都是千篇一律的。 这就如同生产线出现之前,手工制作的产品,每一件都有自己的特点;而大机器生产之后,所有的产品都是标准化的。 但是总的来讲,在这方面,人是做不过机器的。这就如同绝大部分手工产品的质量都不如大机器生产的好那样。 前景展望...
AI新贵ChatGPT在中国市场遭遇尴尬
研博论文

AI新贵ChatGPT在中国市场遭遇尴尬

人工智能助手ChatGPT近期引发关注,它能帮助学生做作业、设计师创意、研究生写论文和IT人士写代码等,但在中文环境中表现不佳。对此,我国百度公司即将发布的人工智能“文心一言”可能成为竞争者。