ChatGPT在美国校园兴起:如何应对写作挑战
本科论文

ChatGPT在美国校园兴起:如何应对写作挑战

美国校园兴起了一种名为ChatGPT的应用,能生成代码和论文,但学生应谨慎使用,避免影响自己的学习和创造力。许多学校提供了针对英语不流利的学生的写作辅助服务,如Stanford的Hume center for writing and speaking。此外,Grammarly、Scholar等工具也能帮助学生检查语法和查找论文论据。any writing 的前提都是阅读,学生应充分利用这些资源来提升自己的写作能力。
你关注的来了!吴军博士:ChatGPT的能力边界在哪?
研博论文

你关注的来了!吴军博士:ChatGPT的能力边界在哪?

ChatGPT在今天被热炒,主要的原因不是因为它能和人聊天,或者能帮助人做作业。其实做作业这件事它做得并不好,虽然有些中学和大学的问题它能够解决,但是对于绝大部分问题,它给出的答案都是车轱辘话。 那ChatGPT被热炒的原因是什么呢?其实,ChatGPT真正可怕的地方在于,按照当前的速度发展下去,不断扩大应用领域,它可能可以解决很多原本需要人类才能解决的问题。 现在问题来了,都有哪些问题是ChatGPT能解决的?哪些是它不能解决的呢? 前面说了,ChatGPT的基础是语言模型,因此,它的极限也被语言模型的极限所限制。这一讲,我们就看看语言模型都能做什么事情。理解了这个问题,你也就知道了ChatGPT的能力边界。 我把语言模型能做的事情分为三类: 第一类:信息形式转换 第一类是将信息从一种形式转换为另一种形式,无论是语音识别还是机器翻译,都属于这一类。 在语音识别中,输入的信息是语音声波,输出的信息是文字,它们是一一对应的,因此是信息在形式上的转化。机器翻译也是如此,是从一种语言的编码,转换成另一种语言的编码。 不过值得指出的是,任何形式的信息转换通常都会损失一些信息。比如,在机器翻译中,语言中所蕴含的文化常常就损失掉了。这倒不是机器的问题,在用人进行的翻译的时候,也经常会出现这种现象。比如,唐诗翻译成英语往往就显得乏味,英文的诗歌翻译成中文,也常常显得平淡无奇。有些贯通中西的翻译家,会试图把文化的元素加回去,但是计算机做不到这一点。 在这一类事情中,一个通常不被人们注意的应用是在医学领域,比如基因测序。 任何物种的DNA都是四种碱基ATCG的组合,当然,它们不是随意排列的,并非所有的组合都是合理的。比如,不同物种同一功能的碱基片段其实是差不多的,每一个基本的单元就有点像文本中的文字。因此,根据一段碱基,有时候就能识别下一段碱基。 当我们进行基因测序时,要把缠绕在一起的DNA序列剪开,一段段地识别。而剪开的时候,就有可能剪坏,因此,通常都是把DNA复制很多份,剪开以后做对比,以免每一份都没有剪好,识别错了。 当然,对于没有剪好,或者识别得不是很清楚的片段,就可以通过语言模型识别、纠正错误。只不过这项工作所使用的语言模型是基于碱基对的,不是基于文字的。 此外,还有一件事也属于这个范畴,就是让计算机写简单的程序。 2014年,著名的机器翻译专家奥科在离开Google之前领导过这样一个项目,就是让人把要做的事情描述清楚,然后让计算机写Python程序。 奥科的想法很简单,既然能够让计算机将一种人类语言的文本翻译成另一种人类语言的文本,就应该能将自然语言描述的文本翻译成机器语言的脚本,也就是程序。 在2014年的时候,奥科的团队已经能把功能描述清楚的简单任务书变成Python程序。不过,当时的困难是,人其实也无法把自己的想法非常准确地用自然语言写清楚。 从信息论的角度看,如果有了完美的算法,这一大类问题都可以得到完美的解决。对于这些事情,最终人是做不过机器的。 第二类:根据要求产生文本 语言模型能做的第二类事情是根据要求产生文本。今天ChatGPT做的主要工作,像回答问题、回复邮件、书写简单的段落,都属于这一类。 这一类工作,输入的信息量明显少于输出的信息量。从信息论的角度看,这会产生很大的不确定性,需要额外补充信息。而补充的信息的来源,其实就是语言模型中所包含的信息。因此,如果语言模型中包含了某个话题的很多相关信息,它就可以产生高质量的文本;否则,它给出的答案或者所写的内容就不着边际。 这一类应用对于语言模型来讲是最难的。这倒不是因为语言模型做得不够好,而是因为站在信息论的角度看,不可能通过少量信息得出更多的信息。因此,这类工作其实或多或少都需要人工干预。 今天,除了ChatGPT,还有很多类似的写作软件,它们写出来的内容看上去都不错。但是,在这些软件背后,其实有一个由人组成的编辑团队,他们会从几十篇候选文章中挑出一篇提供给用户。今天,在硅谷地区还有一些评估内容质量的外包公司,他们有专人评估计算机产生的文本质量,然后反馈给计算机继续学习、改进。 我就ChatGPT的写作水平,专门询问了两位ChatGPT的深度用户。他们本身就是研究机器学习的博士,出于工作的需要,天天都在分析ChatGPT的写作水平。 他们告诉我,一种最大化的发挥ChatGPT写作能力的做法,就是你和它反复迭代。他们是这样做的: 先给ChatGPT提要求,让它写一篇文章。绝大部分人到此为止了,但是他们会对机器写的文章提出新的修改要求,然后它就会重新给你写,然后你再提要求。这样一来二去,几次迭代下来,文章质量就大有提高了。 这两个人一个是美国人,一个是中国人,他们对ChatGPT最终写出来的文章评价差异还是很大的:美国人认为,质量一般,可以作为邮件发出,但不精彩,不能作为自己的写作,否则别人会觉得自己水平太低;而中国人因为母语不是英语,觉得它写得不错,省了自己很多时间,虽然同样水平的文章他也能写出,但是可能要花更多的时间选择用词和语法。 当然,有人可能会觉得,ChatGPT对于一些专业问题给出的答案,甚至比专家还好。这种现象是存在的,正如我们前面所讲,它学过的知识可能是我们的成千上万倍。但那是因为其他专家已经就所提出的问题进行过了研究,有现成的知识可以提供给它。 比如,你如果问计算机“天为什么是蓝色的”,能得到完美的答案,那是因为之前有物理学家进行了研究,并且他们的解释得到了更多物理学家的认可。也就是说,还是有人工干预在先。甚至于很多问题,其实在互联网上就有比较好的问题答案配对。ChatGPT这一类软件只是把它们整理出来。 相反,硅谷几家大公司的研究发现:ChatGPT做小学算术应用题,甚至参加一些语文考试,比它参加高中的AP课考试,以及研究生入学考试,比如医学院的MCAT考试,成绩要差得多。原因就是,那些小学生的题它没见过,而AP课和MCAT考试都是标准化的,有很多过去的考试题可以找到。 不过,虽然ChatGPT不能自己创造答案,但它还是很有价值的,它可以减少人的工作量。这就如同你在参加物理考试时,计算器可以节省时间一样。但是如果你不懂物理学的内容,即便有了趁手的工具,也照样考不出来。 第三类:信息精简 语言模型能做的第三类事情是把更多的信息精简为较少的信息。 比如,为一篇长文撰写摘要,按照要求进行数据分析,分析上市公司的财报,都属于这方面的工作。 这一类工作,输入的信息多,输出的信息少,因此只要算法做得好,就不会出现信息不够用的问题。 将信息由多变少,就会面临一个选择,选择保留哪些信息,删除哪些信息。 比如,为一本书写摘要,不同的人会写出不同的摘要,他们对于书中哪些是重点内容、哪些是次要内容会有不同的看法。类似的,对于某个上市公司的季度财报,不同的分析师会有不同的看法,他们会按照自己的想法挑选数据作为证据。 同样的,把更多的信息进行精简,也会得出不同的结果,这就要看算法是如何设计的,它所依赖的语言模型之前都统计过什么样的信息等等。 对于这一类工作,最终计算机会做得比大部分人更好。这不仅是因为计算机阅读和处理数据快,语言模型强大,更是因为它在做摘要、做分析或者剪辑视频时,能够做到比人客观。 比如,今天很多人分析财报,会有先入为主的看法,然后根据自己的看法选择数据,有意无意忽略那些重要但不合自己想法的数据。还有很多人在做摘要时,喜欢断章取义。这些问题,计算机通常都能够避免。 但是,计算机的算法也有一个问题,就是缺乏个性化。 我们人类,通常不同的人对于同一本书会有不同的看法。同样是阅读《红楼梦》,有的人把它当作宝黛爱情故事来读,有的人把它当作官僚家庭的生活来读,也有人将它当作中国农耕社会的缩影来读。类似地,同样是将一部电影剪辑成短片,不同人挑选的片段也会不同。 但是,机器做这种事情,结果都是千篇一律的。 这就如同生产线出现之前,手工制作的产品,每一件都有自己的特点;而大机器生产之后,所有的产品都是标准化的。 但是总的来讲,在这方面,人是做不过机器的。这就如同绝大部分手工产品的质量都不如大机器生产的好那样。 前景展望...
博尔赫斯的启示:人工智能与人类思维的比较
研博论文

博尔赫斯的启示:人工智能与人类思维的比较

这篇文章讨论了人工智能的发展和潜在影响。作者认为,尽管人工智能在某些领域有用的,但它与人类思维方式和语言使用的差异很大,因此存在局限性。此外,过于依赖机器学习程序可能会削弱人类的智慧和创造力。
流浪地球2550W超级计算机面试难题:语言理解能力边界与安全问题
研博论文

流浪地球2550W超级计算机面试难题:语言理解能力边界与安全问题

这篇文章主要探讨了人工智能在各个领域的应用安全和风险问题,特别是在语言处理和数据训练方面。AI工具如ChatGPT虽然能有效回答复杂问题,但其可能被用于非法行为,比如网络诈骗和网络钓鱼。此外,开源平台在AI开发中的使用也带来了安全风险,因为它们可能导致漏洞的增加。为了解决这些问题,需要加强对AI安全和隐私的关注,制定相关政策和规定,同时加强国内开源生态的建设。
ChatGPT对教育的冲击与应对策略
本科论文

ChatGPT对教育的冲击与应对策略

自 OpenAI 发布 ChatGPT 以来,该工具在各领域广泛应用,尤其在教育圈引发热议。然而,ChatGPT 对教育的具体影响和应对策略仍待深入探讨。尽管其 ability 有限,只能回答互联网上出现过的问题,但长远来看,ChatGPT 将推动教育进入新阶段,由工具性教育向精神、创意、探索性教育转变,同时需关注知识产权等问题。
是否该拥抱ChatGPT?这台AI掀起的风暴如何影响你的生活与工作?🔥
研博论文

是否该拥抱ChatGPT?这台AI掀起的风暴如何影响你的生活与工作?🔥

文章讨论了人工智能研发公司OpenAI推出的聊天模型ChatGPT因其出色的多才多艺和学习能力而备受关注,尤其在连续对话和模拟人类情绪方面有显著提升,引发热议并对其在各领域的应用产生了威胁感。然而,ChatGPT也存在成本高昂、专业性能待提高、创作内容准确性问题以及版权监管挑战等缺点。尽管如此,其商业潜力和对行业的积极影响不容忽视。
用ChatGPT写论文靠谱吗?有学者试了一下:漏洞百出新智元2023-02-08 14:17北京
期刊论文

用ChatGPT写论文靠谱吗?有学者试了一下:漏洞百出新智元2023-02-08 14:17北京

编辑:LRS 【新智元导读】虽然ChatGPT写的论文错误太多,但掠夺性期刊应该会接收。(错误尝试!!) ChatGPT以其强大的文本创作能力,直接问鼎地表最强问答模型。 但强大的AI也会带来一些负面影响,比如在问答社区一本正经地写出错误答案,帮助学生写论文等。 最近arXiv上的一篇论文引发了业界的关注,来自西班牙圣地亚哥-德孔波斯特拉大学的研究人员在文中以「人工智能在药物发现中的挑战、机遇和策略」,这篇论文的特别之处在于作者使用ChatGPT辅助论文写作。 论文链接:https://arxiv.org/abs/2212.08104 作者团队在摘要中的最后一段「来自人类作者的说明」(Note from human-authors)中表示,创建这篇论文是为了测试 ChatGPT (一个基于 GPT-3.5语言模型的聊天机器人)的写作能力是否能帮助人类作者撰写评论文章。 作者设计了一段指令作为文本生成的初始提示,然后对自动生成的内容进行评估。再进行彻底的审查之后,人类作者实际上重写了手稿,努力在原始proposal和科学标准之间保持平衡,文章的最后也讨论了使用人工智能实现这一目标的优势与局限性。 但是还有一个问题,作者列表里怎么没有ChatGPT?(手动狗头) 论文写作方法 本文是在ChatGPT的辅助下生成的,ChatGPT是2022年11月30日发布的一个自然语言处理系统,由OpenAI用大量文本语料库进行训练,能够根据提供给它的输入生成类似人类写作的文本。 就本文而言,人类作者提供的输入包括论文的主题(人工智能在药物发现中的应用)、需要考虑的章节数量,以及每个章节的具体提示和说明。 ChatGPT生成的文本需要经过人工编辑后才能作为最终的定稿,以纠正和丰富内容,避免重复和不一致等问题;并且人类也需要对人工智能建议的所有参考文献进行了修改。 这项工作的最终版本是人类作者在人工智能的协助下进行反复修改的结果,直接从ChatGPT获得的初步文本与当前版本手稿之间的总相似度为:完全相同的4.3%,微小的变化13.3%,相关的意义16.3%。直接从ChatGPT获得的初步文本中,正确的参考文献比例仅为6%。 由ChatGPT生成的原始版本,以及用于创建该版本的输入信息都涵盖进来作为Supporting Information 论文摘要中的插图由DALL-E生成。 论文内容 论文总共包括10个section和56个参考文献,其中section1-9都只包含1-2个段落,主要描述论文主题「「人工智能在药物发现中的挑战、机遇和策略」」相关的内容;第十个section主要讨论「人类作者对基于ChatGPT和AI的科学写作工具的专家意见」;文章中只有摘要部分包含一张插图。 摘要 人工智能有可能彻底改变药物发现过程,提供更好的效率、准确性和速度。然而,AI的成功应用取决于高质量数据的可用性、对道德问题的处理以及对基于人工智能方法的局限性的认识。 这篇文章回顾了人工智能在这个领域的好处、挑战和缺点,并提出了克服目前障碍的可能战略和方法。 文章中还讨论了数据增强的使用、可解释的人工智能、人工智能与传统实验方法的整合,以及人工智能在医药研究中的潜在优势。 总的来说,这篇评论强调了人工智能在药物发现中的潜力,并对实现其在该领域的潜力所面临的挑战和机遇进行了深入探讨。 人类作者对基于ChatGPT和AI的科学写作工具的专家意见 ChatGPT是一个基于GPT-3.5语言模型的聊天机器人,它的设计目标并非是撰写科学论文的助手,但它与人类进行连贯的对话并就广泛的主题提供新信息的能力,以及它纠正甚至生成计算代码的能力,都让科学界感到惊讶。 因此,我们决定测试它的潜力,为编写关于人工智能算法在药物发现中的作用的简短评论做出贡献。 作为撰写科学论文的助手,ChatGPT有几个优点,包括快速生成和优化文本的能力,以及帮助用户完成几个任务,包括组织信息,甚至在某些情况下连接思想。 然而,这个工具绝不是生成新内容的理想工具。 输入instructions后,还需要人类对人工智能生成的文本进行修改,而且是大篇幅的编辑和修正,包括替换几乎所有的参考文献,因为ChatGPT提供的参考文献明显不正确。 这也是ChatGPT目前存在的一个大问题,它与其他计算工具(如搜索引擎)相比有一个关键的区别,后者主要是为所需的信息提供可靠的参考。 而采用基于人工智能的工具进行写作辅助还存在另一个重要的问题:它是在2021年训练的,所以它并不包括最新信息。 这次写作实验提供的结果就是:我们可以说ChatGPT不是一个有用的工具,在没有强大的人类干预的情况下无法编写可靠的科学文本。 ChatGPT缺乏准确和充分传达复杂科学概念和信息所需的知识和专长。 此外,ChatGPT使用的语言和风格可能不适合学术写作,为了生成高质量的科学文本,人类的输入和审查是必不可少的。 这种人工智能还不能用于生产科学文章的主要原因之一是它缺乏评估处理信息真实性和可靠性的能力,因此,由ChatGPT生成的科学文本肯定包含错误或误导性信息。 同样需要注意的是,审稿人可能会发现区分由人类或这个人工智能写的文章并非易事。 这使得审查过程必须彻底,以防止虚假或误导性信息的发表。 一个真正的风险是,掠夺性期刊(predatory journals)可能利用科学文章的快速生产来产生大量的低质量内容,这些期刊往往受利益驱使,而不是致力于科学进步,它们可能利用人工智能快速生产文章,让不合格的研究充斥市场,破坏科学界的公信力。 最大的危险之一是科学文章中虚假信息的潜在扩散,这可能导致科学事业本身的贬值,失去对科学研究的准确性和完整性的信任,会对科学的进步产生不利影响。...