ChatGPT让教育陷入尴尬?能向AI问出一个好问题的孩子不会输
本科论文

ChatGPT让教育陷入尴尬?能向AI问出一个好问题的孩子不会输

看点 ChatGPT大火,这个文能写论文、武能编代码的聊天机器人,一经问世便火爆出圈。然而,一方面,越来越多的学生开始使用ChatGPT写作业、完成论文甚至作弊,另一方面,它所表现出的智能也已经超出许多人类学生。怎样的孩子才能在未来社会中保持核心竞争力?面对人工智能发展的挑战,我们又该如何通过教育破局? 支持外滩君,请进入公众号主页面“星标”我们,从此“不失联”。 文丨张楠 编丨Iris ChatGPT,在互联网上掀起了一场“AI风暴”。 即使是再对科技不感兴趣的人,也很难从各大社交网络平台上密密麻麻的讯息中忽略掉它。 关于它“蹿红”的迅速程度,还有一组为人津津乐道的数据:手机用了16年触达全球1亿用户,Meta和Instagram则分别用了54个月和30个月,Tiktok用了9个月,而ChatGPT仅用了2个月。 有人说,站在前人的肩膀上,吃到互联网普及、信息传递效率的红利,“更快”并不令人意外。 然而“更强”也是真的:一方面实现了“无监督学习”技术革新,另一方面使用场景也普适到了人人都能体验的程度。震惊的已经不只是你我,科技大佬们也纷纷不淡定了。 去年12月,马斯克就发推称:“ChatGPT好得吓人,我们离强大到危险的人工智能不远了。”而微软联合创始人比尔·盖茨甚至表示,这项技术诞生的意义不亚于互联网或个人电脑的诞生。 这两位可不只是说说而已。 一手打造了ChatGPT的美国人工智能研究实验室OpenAI,成立于2015年,而马斯克正是当时的创始人之一; 至于微软,2019年就注资10亿支持OpenAI,建立起深度合作关系,如今ChatGPT大火,微软又迅速动作起来,开始推进将ChatGPT嵌入微软旗下的所有产品中,包括且不限于Bing搜索引擎、Office办公软件、Teams协作程序和Azure云服务等等。 2023开年,人工智能这把火烧得实在太旺。烧红了股市,点燃了新一轮的产业革命,也慌了普通人的心神:ChatGPT的强势登场,瞬间将学习、教育、就业都推往一个更加不可预料的方向。新世界,真的要来了? 未来已来 AI学会学习了? ChatGPT,英文全称为Chat Generative Pre-trained Transformer,翻译成中文是“预训练生成式聊天模型”。是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话。 简单来说,它是一个“会聊天”的人工智能。 到这里,它的功用似乎与Siri无异。但ChatGPT的厉害之处,就在于它的长时记忆力和上下文关联推理,语言组织的逻辑性,以及可以通过人类面对它提供错误答案时的反应不断收集数据,然后迭代升级。 比如说,当你要求Siri给你讲个笑话,可是不好笑,再问“还有吗?”Siri可能就会说“对不起,我没有听懂您的问题”。因为在这一轮对话里,它已经不记得“笑话”这个关键信息了。 但ChatGPT就不会出现这个问题,它不用人类再次完整复述问题,就知道这个问题的意思是“还有(笑话)吗?”并给出相对应的回答。 同时,ChatGPT的训练数据相当大,3000亿单词的语料作为知识库,加上1750亿参数构成的模型,使得它的应答能力也被大大提高。 基于这些功能特点,它特别善于回答各式各样的开放式问题,也能够执行更加复杂的任务。这也是就为什么,面对全球网友千奇百怪的提问,它几乎都能对答如流。 图源网络 而这种能够拟人化与人类进行对话的功能,看上去还属于它比较基础的功能。因为人们已经在尝试中发现,写文章、编写代码、甚至出商业方案,对ChatGPT来说都不在话下。 如果不够满意,还可以通过补充背景信息、增加具体要求等,让它给出更符合情境需求的回答。 比如写文案,如果要求是微博文案,ChatGPT会自动加“#”带话题,场景换成小红书,它又会立刻增添上一串emoji…… 这些画面感十足的应用场景,都让它看上去已经更接近一个“会学习”的人工智能。有网友戏言,再让它这么进化下去,很快就能达到《流浪地球2》里MOSS的程度了吧。 图源ADOBE STOCK 可是,它是真的“会学习”了,还是只是表面看上去聪明? 我们可以从它的训练方式中一探究竟。过去,我们对人工智能的学习方式有一个大体上的认知,有点儿像我们在教育中常说的“填鸭教育”,通过喂给它海量的数据来进行训练。 ChatGPT的训练也是在这个基础上进行的: 首先,从成千上万的问题中,由人工标记出一些问题,并写出参考答案给AI,然后AI参照这个示范去回答更多的问题。这个步骤叫做“收集示例数据,训练一个有监督的模型”。 第二步叫做“收集比较数据,训练一个奖励模型”,也就是,人们从AI对同一个问题给出的不同回答进行打分排序,通过这种结果的比较,训练AI能够自动判断哪一个答案更好。 而第三步,就是给它更多的新问题,然后重复前两步,回答问题、自我评分,这就是“根据奖励模型,对有监督模型进行持续的强化学习”。 不难看出,ChatGPT在前两步都是在人类的指导学习,这中间需要大量的人类工作去标注数据。但是到了第三步强化学习,却不太需要人力了,更多是对电力、算力的要求。 而且,随着越来越多的用户去跟ChatGPT对话,它基于人类反馈的学习能力还将进一步得到提升。 这个过程中牵涉到许多专业的计算机知识,对我们大多数非专业的普通人来说,要完全理解并不容易。但这个大体的训练逻辑,却给人一种极为熟悉的感觉:先学习标准答案、再明确评分标准,然后重复练习、举一反三——这不就是应试教育么? AI的光芒 照出教育的困境? 以往,对于科技发展的反应,教育几乎始终是滞后的。...
ChatGPT和文心一言:生成式语言模型的应用和挑战
本科论文

ChatGPT和文心一言:生成式语言模型的应用和挑战

在当今人工智能的高速发展中,chatGPT和文心一言等生成式语言模型成为了热门话题。本论文将探讨这些模型的背景、应用、优势以及局限性。 chatGPT是由OpenAI开发的一种基于transformer网络的自然语言处理模型,它能够生成高质量的文本、对话等。它的应用范围广泛,可以用于聊天机器人、智能客服、文本生成等场景。而文心一言则是一种中文生成式语言模型,由深圳市文心信息技术有限公司开发,可用于生成诗歌、对联等文艺作品。 这些模型的优势在于它们能够自动化生成大量的高质量文本,提高了工作效率和文本质量。同时,它们也能够适应不同的语言和语境,为不同场景提供定制化的解决方案。举例来说,chatGPT可以为智能客服提供更加人性化的服务,而文心一言则可以为文学爱好者提供更多样化的文学作品。 但是这些模型也存在着一些局限性。一是它们的生成过程是基于训练集的,如果训练集中存在偏见或错误,那么生成的文本也会存在类似的问题。二是它们不能理解语言的含义和上下文,因此在一些语义复杂的场景下,它们可能会产生不准确的结果。最后,这些模型也存在着数据隐私和安全问题,因为它们需要访问大量的用户数据和知识库。 所以通过上述情况可以看出,chatGPT和文心一言等生成式语言模型是人工智能发展中的重要组成部分,它们在提高文本生成效率和质量方面发挥着重要作用。但是,我们仍然需要认识到它们的局限性,并在使用这些模型的过程中采取相应的措施来减少风险和偏差。 在实际应用中,chatGPT和文心一言等生成式语言模型已经被广泛应用于各种场景中。其中,聊天机器人和智能客服是应用最为广泛的场景之一。 在智能客服应用领域,chatGPT可以为用户提供更加个性化的服务。通过对用户的历史对话记录和个人信息进行分析,chatGPT可以为用户提供更加针对性的建议和解决方案。与传统的客服相比,chatGPT可以更加快速和准确地回答用户的问题,提高了用户的满意度和忠诚度。 在聊天机器人中,chatGPT可以模拟真实人类对话,为用户提供更加自然和流畅的体验。通过对用户的对话进行分析,chatGPT可以逐渐了解用户的兴趣和需求,提供更加个性化的服务。与传统的聊天机器人相比,chatGPT可以更加准确地理解用户的意图和情感,提高了用户的交互体验和参与度。 在文学创作中,文心一言可以为用户提供更多样化的文学作品。通过对不同风格和主题的训练,文心一言可以生成多种类型和风格的诗歌、对联等文艺作品。与传统的文学创作相比,文心一言可以更加快速和高效地生成大量的作品,为文学爱好者提供更多的选择。 除了聊天机器人和文学创作之外,chatGPT和文心一言还可以应用于社交媒体、商业广告、自然语言翻译等场景中。例如,在社交媒体中,chatGPT可以为用户提供更加个性化的内容推荐和广告推广,提高了用户的参与度和转化率。在商业广告中,chatGPT可以为广告主提供更加准确和有效的广告创意和文案,提高了广告的效果和投资回报率。在自然语言翻译中,chatGPT可以为用户提供更加准确和自然的翻译服务,打破了语言和国界的限制。 然而,这些模型也存在着一些局限性和挑战。其中我们上面也说过最重要的是数据隐私和安全问题。由于这些模型需要访问大量的用户数据和知识库,因此存在着数据泄露和滥用的风险。同时,这些模型的生成过程也存在着难以控制和解释的问题,导致可能会生成不合适或有害的内容。 为了应对这些挑战,我们需要采取一系列的措施来加强数据安全和隐私保护。首先,应该加强数据收集和使用的合规性和透明性,确保用户的数据得到充分保护和授权。其次,应该加强模型的可解释性和可控性,确保生成的文本符合道德和法律的要求。最后,应该加强行业和政策的监管和规范,促进模型的健康和可持续发展。 总之,这些模型的不断发展和创新将为人工智能的未来带来更多的机遇和挑战。我们期待看到更多的人工智能技术应用于实际场景中,为人类社会带来更多的福祉和进步。
吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧
研博论文

吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧

编辑:LRS 【新智元导读】语言模型理解了人类语言吗?谁赞成,谁反对? 机器会不会思考这个问题就像问潜水艇会不会游泳一样。——Dijkstra 早在ChatGPT发布之前,业界就已经嗅到了大模型带来的变革。 去年10月14日,圣塔菲研究所(Santa Fe Institute)的教授Melanie Mitchell和David C. Krakauer在arXiv发布了一篇综述,全面调研了所有关于「大规模预训练语言模型是否可以理解语言」的相关争论,文中描述了「正方」和「反方」的论点,以及根据这些论点衍生的更广泛的智力科学的关键问题。 论文链接:https://arxiv.org/pdf/2210.13966.pdf 发表期刊:《美国科学院院报》(PNAS) 太长不看版: 支持「理解」的主要论点是大型语言模型能够完成许多似乎需要理解后才能完成的任务。反对「理解」的主要论点是,以人类的角度来看,大型语言模型的理解力非常脆弱,比如无法理解prompt间的微妙变化;并且语言模型也没有现实世界的生活经验来验证他们的知识,多模态的语言模型可能会缓解这个问题。 最关键的问题在于,目前还没有人对「什么是理解」有一个可靠的定义,并且也不知道如何测试语言模型的理解能力,用于人类的测试不一定适用于测试大型语言模型的理解能力。 总之,大型语言模型能够理解语言,但可能是以一种不同于人类的理解方式。 研究人员认为,可以开发一种新的智力科学,深入研究不同的理解类型,找出不同理解模式的优势和局限性,同时整合不同理解形式产生的认知差异。 论文的第一作者Melanie Mitchell是Santa Fe研究所的教授,她于1990年博士毕业于密歇根大学,导师为侯世达(《哥德尔、艾舍尔、巴赫:集异璧之大成》的作者)和约翰霍兰德,她的主要研究方向为类比推理、复杂系统、遗传算法和细胞自动机。 到底什么叫做「理解」? 「何为理解」一直困扰着哲学家、认知科学家和教育家,研究人员经常以人类或其他动物作为「理解能力」的参照物。 直到最近,随着大规模人工智能系统的兴起,特别是大型语言模型(LLM)的出现,在人工智能界掀起了一场激烈的辩论,即现在是否可以说机器已经能够理解自然语言,从而理解语言所描述的物理和社会情况。 这不是一场单纯的学术辩论,机器理解世界的程度和方式对于人类能在多大程度上信任AI能够执行驾驶汽车、诊断疾病、照顾老人、教育儿童等任务,以便在人类有关的任务中采取有力且透明的行动。 目前的辩论表明,学术界在如何思考智能系统中的理解方面存在着一些分歧,特别是在依靠「统计相关性」和「因果机制」的心智模型(mental models)中,分歧更加明显。 不过,人工智能研究界对机器理解仍然达成了普遍共识,即,虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们所处理的数据。 比如说,面部识别软件并不能理解面部是身体的一部分,也不理解面部表情在社会互动中的作用,更不能理解人类是如何以近乎无穷种方式来使用面部概念的。 同样,语音转文字和机器翻译程序也并不理解它们所处理的语言,自动驾驶系统也不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。 事实上,这些人工智能系统经常被提及的脆性(brittleness),即不可预测的错误和缺乏稳健的泛化能力,是评估AI理解力的关键指标。 在过去的几年里,大型语言模型(LLMs)在人工智能领域的受众和影响力激增,也改变了一些人对机器理解语言前景的看法。 大型预训练模型,也可以叫做基础模型(Foundation Models)是具有数十亿到上万亿个参数(权重)的深度神经网络,在海量自然语言语料库(包括网络文本、在线图书等)上进行「预训练」后得到。 模型在训练期间的任务是预测输入句子中的缺失部分,所以这种方法也叫做「自监督学习」,由此产生的网络是一个复杂的统计模型,可以得到训练数据中的单词和短语之间是如何相互关联的。 这种模型可以用来生成自然语言,并为特定的自然语言任务进行微调,或者进一步训练以更好地匹配「用户意图」,不过对于非专业人士和科学家来说,语言模型到底如何完成这些任务的,仍然是个谜。 神经网络的内部运行原理在很大程度上是不透明的,即使是构建这些网络的研究人员对这种规模的系统的直觉也是有限的。 神经科学家Terrence Sejnowski这样描述LLMs的涌现能力(emergence): 突破了某个阈值后,就好像外星人一下子出现了,可以用一种可怕的、人类交流的方式与我们交流。目前只有一件事是清楚的,大型语言模型并非人类,它们行为的某些方面似乎是智能的,但如果不是人类的智能,它们的智能的本质是什么? 支持理解派VS反对理解派 尽管大型语言模型展现出的性能让人震撼,但最先进的LLMs仍然容易受到脆性和非人类错误的影响。 不过可以观察到,网络性能随着其参数数量和训练语料规模的扩大而有明显改善,这也使得该领域的一些研究者声称,只要有足够大的网络和训练数据集,语言模型(多模态版本)也许是多模式版本–将导致人类水平的智能和理解。 一个新的人工智能口号已经出现:唯一要做的就是提升模型规模(Scale is all you...
想约全球流量天菜ChatGPT一起发SCI文章?可以么?
研博论文

想约全球流量天菜ChatGPT一起发SCI文章?可以么?

它来了,它来了!ChatGPT迈大步闯进学术圈了!你还不醒醒?! ChatGPT火成什么样了?Sensor Tower数据评估了全球顶级应用程序月活用户达到1亿所用时间,其中Instagram用了30个月,TikTok用了9个月,而ChatGPT仅仅用了2个月。称它为全球流量天菜,不为过吧! 自从它出现以后,我发现隔壁实验室的菜博士已经不跟小伙伴们聊天和讨论了,整天对着电脑傻笑。 据说,菜博士跟ChatGPT天天一起写文章,貌似还准备投稿SCI期刊,难道是反应迟钝,限制了我的想象力?!不禁疑问3联,ChatGPT不是个“数字人”么?还能约着一起写文章?还能作为共同作者发文章啊?然而,菜博士竟然不是第一个想要跟ChatGPT成为搭档成为共同作者的人,当然也不是第二个…… 俗话说,这边为你开了一道门,那边就要给你关上一扇窗。 由于目前使用ChatGPT一类的人工智能工具,还没有出台相应的规范化使用界限准则,而学术期刊的领头羊们率先明确发布了一些约束措施,如Science期刊的主编说:“我们不允许AI被列入我们发布论文的作者,并且在没有适当引用的前提下,使用AI生成的文本可能会被视为剽窃”。 Nature期刊的主编也明确说明:“任何大型语言模型(LLM)都不会被接受为研究论文的署名作者。这是因为任何作者的归属都意味着对研究工作的责任,而人工智能工具不能承担这种责任”。 所以说用ChatGPT写文章这种事情,还是要严谨对待,人人都要为自己负责,可不能随意就让人家机器人背锅啊! 问: “约”了ChatGPT一起写论文,它写了好多内容,还帮我做了表格,但是它不能负责,所以不能放在共同作者这里,那放哪儿合适呢? ‍答:如果你“找”了ChatGPT一起写的这篇论文,因为它给了你很多帮助,对论文有不小的贡献,但是由于它就是个工具,不能为论文的idea和原创性负责,建议可以放在方法Methods或致谢Acknowledgements板块。 问: ChatGPT给科研工作者带来的好处? ‍答:免费科助,重点是不会疲惫,不管你让它工作模式是996还是007,都不会闹小情绪哦!如果你懂得怎么跟他提问题交流,并能从每次交流中判断出有用信息,你将变成它的“主人”,它会像个陪练一样,陪着你在科研路上锻炼出独立的批判性思维能力。 问: ChatGPT给科研工作者带来的隐患? ‍答:如果你不是想“利用”它,而是想“依靠”它,那随着你一次次的偷懒,一次次把该你思考的问题全权交给ChatGPT去“代理”回答,将会让你本就不聪明的脑袋越来越“麻木”,我相信不用多久,你也就问不出什么有意义的问题了。再说了,ChatGPT还喜欢一本正经的编故事,不具备良好的判断能力,被忽悠了都不自知的自以为是傻乐,就更不好了吧! 问: 都“约”ChatGPT一起写文章了,竟然还不知道人家全名吗? ‍答:Chat Generative Pre-trained Transformer P.S. 不带感情的中文直译:聊天生成式预训练变换器 好朋友给你“讲人话”的翻译:经过海量数据预先训练了的,可以跟你聊天对话的一个人工智能机器人。它可以根据你输入的问题或者一段文字,生成一段以假乱真像真人回复的内容。
复旦清华联合顶刊发文|ChatGPT:潜力、前景和局限
研博论文

复旦清华联合顶刊发文|ChatGPT:潜力、前景和局限

来源:信息与电子工程前沿FITEE 作者:周杰 柯沛 邱锡鹏 黄民烈 张军平 编辑:好困 【新智元导读】为更好地理解ChatGPT,这里我们简要介绍其历史,讨论其优点和不足,指出几个潜在应用,最后分析它对可信赖人工智能、会话搜索引擎和通用人工智能(artificial general intelligence, AGI)发展的影响。 最近,OpenAI发布了对话生成预训练模型Transformer(Chat Generative Pre-trained Transformer,ChatGPT)(Schulman et al., 2022),其展现的能力令人印象深刻,吸引了工业界和学术界的广泛关注。这是首次在大型语言模型(large language model, LLM)内很好地解决如此多样的开放任务。 ChatGPT成为历史上增长最快的消费者应用程序,在发布后两个月内,吸引了1亿月度活跃访客(Hu,2023)。自发布以来,因其高超的对话能力,已引爆社会关注。它可以回答后续提问,拒绝不当请求,挑战错误前提,并承认自己错误(Schulman et al., 2022)。它获得许多涌现能力,如高质量对话、复杂推理、思维链(CoT)(Wei et al., 2022b)、零/少样本学习(语境学习)、跨任务泛化、代码理解/生成等等。 论文地址:https://link.springer.com/article/10.1631/FITEE.2300089 这些令人印象深刻的能力,ChatGPT是如何获得的? 其主要得益于大型语言模型,它利用语言模型(LM)在大规模数据上训练巨大的神经网络模型,如Transformer(Vaswani et al., 2017)。语言模型旨在根据上文预测下一个词的概率,是文本中的自监督信号。 互联网上存在大规模文本数据,所以通过语言模型对模型进行预训练是顺理成章的。现有研究表明,模型规模和数据量越大,性能越好。当模型和数据规模达到一定程度时,模型将获得涌现能力。 例如,OpenAI发布的GPT-3(Brown et al., 2020)有1750亿个参数。它的预训练采用超级计算机(285 000个CPU,10 000个GPU)在45 TB文本数据上完成。 而模型也由此在零样本学习任务上实现了巨大性能提升,具有小模型所不具备的语境学习能力。随后,更多策略——如代码预训练(Chen et al., 2021)、指令微调(Wei...
用ChatGPT薅羊毛,有人月入十几万,有人写27本书赚1.46刀
研博论文

用ChatGPT薅羊毛,有人月入十几万,有人写27本书赚1.46刀

正如人类围棋界已经彻底向AI低头一样,如今,人类世界又多出了一位新的“大师”——ChatGPT。 作为新一代人工智能驱动下的聊天机器人程序,诞生四个月来,它给全世界带来了一场堪称颠覆式的震动。这种震动,终于在上周GPT—4发布时,达到了顶点。它的进化速度令人震惊——一个月之前,它还只能识别文字,现在,它已经进化到可以理解图片内容,就连更复杂和抽象的表达也不在话下。一份来自OpenAI的研究预计,在未来,ChatGPT可能影响80%的工作岗位,并且,“收入越高受影响越大”。 但在这一天到来之前,另一些人想到,不妨利用这个时间差,薅一把ChatGPT的羊毛。某种程度上,知识的价值也与其稀缺性相关,在国内,作为如今只有少数人能接触到的工具,ChatGPT的使用本身就意味着价值。 不信的话,你可以打开任意视频网站,搜索“ChatGPT赚钱”,就可以看到,视频博主们在用不俗的收益与播放量证明,ChatGPT确实能帮你赚钱。在这样的背景下,我们也找到了5个利用ChatGPT,成功薅到羊毛的年轻人,并且,按照他们薅到羊毛的多少进行了排列。当读到文章最后,相信你能从中发现某种真相。 不过,当你发现这些方法的时候,羊或许已经被薅秃了。 文 | 祁佳妮 黎佳佳 编辑 | 易方兴 运营 | 栗子 羊毛厚度:一颗星 “用ChatGPT写26本书,赚了1.46美元” 潘莉莉 50岁 房地产从业者 我住在美国南加州,从二月下旬起,我开始用ChatGPT写书。到现在,我一共写了26本书,其中14本是图画书,12本是文字书。 我写的第一本书是中文侦探小说。写之前,我压根没想过它能写得出来,因为我只给了ChatGPT很少的输入——我说,我要写一个中国版福尔摩斯的故事,要注重细节和外貌描写,对话也要风趣幽默一点,男主得是刘学义的模样,他住在上海的高楼里面给人破案。 当时,脑子里只有这些点子,最后ChatGPT写出来的东西,跟我的期望一比还是有很大落差。我想得很美,以为它能直接生成一本10万字、结构完整的小说,但它其实只能一段话一段话地回答,前后人物也不一致。相当于我要指导它,每一段该写什么,逻辑是什么,还得润色修改文字。后来,我花三天时间,除了吃饭睡觉都在用ChatGPT,才把这部两万七千字的短篇小说写出来。 我专门注册了晋江账号把小说传上去,数据不好,才三百多点击量,也没网友评论。说实话这部小说写得很差,但我还是很兴奋的,这是我第一次用AI工具写一个完整的故事。 这次试水之后,我写书的速度就飞快了。我之后写的全是英文工具书,比如工商管理类的文集,是我专业对口,也不像中文侦探小说那么考验逻辑推理。我会让ChatGPT列一个大纲再开始写作,保证它的前后连贯性。一本纯英文的书,一天可以写两三本。 ▲ 潘莉莉用ChatGPT写的侦探小说(节选)。图 / 受访者提供 我一个人住在美国,偶尔打点一下各处房产,其他时间都很闲,那段时间一门心思扎进去写书,就是觉得很有意思。我脑海里冒出一个点子,ChatGPT几小时就能实现,其实是帮我完成了从0到1这最艰难的一步。 有很多像我一样用ChatGPT写书的人,亚马逊上架了两千多本这样的电子书,我一个人就贡献了26本。自费出版纸质书多划不来,我现在写电子书都没人买。我原先定价0.99美元,还有几个人买,后来想多拿点分成,把价格定到2.99美元,无人问津。截至目前,一共有92人下载了我的书,但都是做活动的时候免费下载的,我真正赚到的钱只有1.46美元。 只能安慰自己,我不靠ChatGPT来挣钱。想要靠它写小说来挣钱是完全不可能的,除非你花几百美元去做市场营销。 我最近写的一本《67个女性形象》,已经是我所有书里下载量最高的,但它在亚马逊免费电子书的排行榜里排九千多位,谁会去看? 我还是别和专业作家抢饭碗了吧。 ▲ 潘莉莉写26本书的总收益。图 / 受访者提供 羊毛厚度:两颗星 “靠ChatGPT薅百家号羊毛,挣了1000元” 张荻 30岁 程序员 我在郑州的央企做程序员,接触ChatGPT比较早,去年12月底就在关注这个工具。 我刷到短视频,有人讲互联网掘金的方式,相比起拍短视频,我觉得用百家号回答问题更容易,正好手头又在用ChatGPT,就尝试了这条路子。 百家号的挣钱模式很简单,有点像百度文库和百度知道,就是针对某个问题做解答,你的答案被选中了,就有稿费。百度在这一点上很实在,如果审核通过,图文答案一条10元,视频答案一条30元。...
别紧张,ChatGPT离统治人类还早得很
期刊论文

别紧张,ChatGPT离统治人类还早得很

意义重大。2023年开年,互联网上最火的词是什么?——ChatGPT。 这款由人工智能公司OpenAI开发的聊天机器人的突然爆火,不仅引发了人们对其应用范围的大讨论,也炒热了ChatGPT概念。一时间,街头巷尾都充斥着关于ChatGPT的热议,ChatGPT相关概念股更一度猛涨。 在经历了2016年由AlphGo击败李世石而掀起的AI浪潮后,ChatGPT的出现让AI这个行业再度以如此高光的姿态回到公众视野。只是,与上一波AI浪潮不同,这次的主角从谷歌的AlphGo,变为微软的OpenAI。 凭实力震惊四座 公开资料显示,ChatGPT是由人工智能研究实验室OpenAI发布的一款生成式AI对话大模型。ChatGPT能够通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。 ChatGPT在2022年11月一经推出,就迅速在社交媒体上走红。不到一周,用户数就突破100万人,月访问量达2100万人次。上线一个多月,ChatGPT就把OpenAI的估值从200亿美元推高到290亿美元。推出仅两个月后,月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。 在ChatGPT聊天界面中,用户只要输一段文字,ChatGPT就能够通过其AI语言模型,在短短几秒内给出回复,并且能实现上下文连续对话,作为一种重要的人工智能技术,有望在各个领域产生广泛的影响。 随着ChatGPT火遍全球,关于它的报道和“测评”也铺天盖地。 据悉,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。写作业、写论文、写演讲稿……ChatGPT的身影出现在了诸多领域。 一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。据权威学术期刊《自然》新闻部报道,截至目前,ChatGPT已经作为合著作者,出现在至少四篇已发表的论文或预印本中。 在强大的“网红带货”基础上,基于ChatGPT的应用也陆续出现。有人用ChatGPT做了一个“会议秘书”程序,可以在视频会议中实时形成会议纪要,最后连任务建议全都一并总结了。 用户追捧,投资界关注,企业竞相追逐,这款凭借出色的聊天能力、惊人的理解能力,成功摆脱“人工智障”的聊天机器人成为最近网友争相“测试”的聊天对象。“厉害”“强大”“可怕”成为和ChatGPT聊过天的网友口中反馈的高频词。 OpenAI最初的联合创始人之一埃隆·马斯克在推特上写道:“这是一个新世界。再见作业!” “超能力”隐患 ChatGPT的利用价值被人类挖掘,其引发的技术、安全、教育等问题也引起重视。有声音称其“有望干翻教育、金融、新闻媒体”,但ChatGPT的“超能力”除了让行业感到兴奋,也一并带来了隐忧。 事实上,从2015年人工智能话题起风以来,关于“人类工作被AI取代”的讨论就不绝如缕。有人调侃称,“每当有AI新闻出现,很多行业人士就要‘被失业’一次。” 一项调查显示,现在美国89%的大学生都是用ChatGPT做作业,目前,纽约教育系统全面“封杀”了ChatGPT。 由于ChatGPT在论文上的使用,多家知名学术期刊也正在更新编辑规则。多家期刊、出版机构如《科学》《自然》等,也禁止将ChatGPT列为论文合著者。 对于学术研究领域而言,如果无法区分人工编写内容和AI模型生成内容,任由AI发布错误的研究结论,人类很可能会被AI严重误导。到那时,电影中AI蒙骗人类、酿成大祸的情节,很快就会成为现实。 还有一些学术会议在公开反对ChatGPT成为作者时提到了“责任归属争议”。比如,机器学习会议ICML就表示过:“ChatGPT接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,这会带来一系列的责任归属问题。” 除此之外,ChatGPT可能引起的”学术剽窃”风险。有学者认为,如果ChatGPT在回答用户过程中提供了他人创作的文字、摄影、试听等作品或软件代码,只要超出合理使用限度,就属于侵犯著作权的行为,而且ChatGPT的检索效率、精准度比谷歌等传统搜索引擎更高,客观上为学术剽窃等不端行为提供了很大便利,被学术机构禁用在情理之中。 搜索巨头混战 伴随着ChatGPT的霸屏,其广阔的商业前景已引起关注。 总的来看,ChatGPT是AIGC(人工智能生产内容)的一个分支,你可以让它写一首诗赞美李白,帮你写简单的代码,甚至可以问它“如何3句话让女人为我花30万?”在某种程度上,由于省去了用户浏览多条信息进行筛选和整合的时间,ChatGPT甚至比搜索引擎更加方便。 在应对ChatGPT向人工智能领域发起的挑战中,搜索三巨头再次陷入激战。 北京时间2月7日凌晨,谷歌对标ChatGPT推出对话式人工智能服务Bard。当日下午两点,百度官宣大模型新项目文心一言。次日凌晨两点,微软推出由ChatGPT支持的Bing版本。 谷歌推出的人工智能聊天机器人Bard直接与ChatGPT竞争,但谷歌的反攻却遭遇了不利开局。2月8日,Bard在一条演示视频中犯了一个事实性错误,它在官方演示视频中提问的“关于詹姆斯·韦伯太空望远镜(JWST),我可以告诉我9岁的孩子它有哪些新发现?”Bard给出了一个回复为“JWST拍摄了太阳系外行星的第一张照片”的错误答案。 上述错误被发现后,引发市场对人工智能技术生成答案准确性的担忧,谷歌股价也一度暴跌近9%。市值一夜蒸发千亿美元。 而面对ChatGPT的全面爆红,微软决定将OpenAI的技术整合到Bing搜索引擎中,引发搜索市场巨震,外界认为谷歌在搜索市场的霸主地位或将受到威胁。 国内搜索巨头百度也不甘示弱。百度表示,人工智能聊天机器人服务项目“文心一言”目前在做上线前的冲刺,预计三月份完成内测,面向公众开放。 除了传统三巨头之外,其他企业也纷纷入局争相“分一杯羹”。同样拥有搜索业务的三六零公司也在互动平台回复称,公司计划尽快推出类ChatGPT技术的demo版产品。阿里、网易、京东灯一众公司也集体对外宣布要推出类ChatGPT新产品 现在可以确定的是,在“谁能代表下一代搜索和浏览器”的问题上,科技巨头们还将继续针锋相对。 ChatGPT的商业局限 从业内人士的角度来看,ChatGPT之所以能够让人如此疯狂,更多是因为它可能提供的丰富的消费互联网应用场景,由此带来的“钱景”使整个AI产业看到了一丝曙光。 从2020年开始,业界认为AI产业已经进入泡沫破裂的“死亡之谷”。造成这一问题的主要原因在于,目前AI产品的应用主要集中在B端(企业用户)和G端(政府用户),这在某种程度上大大限制了AI产品的市场扩张。 而ChatGPT的市场表现,也让外界开始提出疑问:AIGC会不会取代搜索引擎成为下一代商业模式。 搜索引擎的价值在于帮助用户快速找到所需的信息,ChatGPT则可以根据用户的输入,自动生成相关的回复,核心是创造信息。即使搅动了整个搜索行业,ChatGPT的短板也很明显:常常一本正经地胡说八道。 ChatGPT受制于模型训练方式,其数据无法实现实时更新。而人工智能机器的神通可以广大到什么程度,取决于背后的计算机工程师“喂养”了它多少数据。数据存在空白区、缺乏准确性,导致目前的ChatGPT仍然处于“一本正经地闲聊”阶段,尤其是很多知识类的内容经不起推敲。因此,使用类似ChatGPT 的对话式人工智能进行检索,可能会带来不准确、偏见和抄袭,而搜索引擎则能够给出各种解法和例题。 目前ChatGPT知识储备仅截至2021年,还不能实时调取互联网信息。从工业应用的角度来看,一个模型需要把所有知识都记录下来,而现在的模型规模无法达到。 因此,AIGC和搜索引擎尽管部分功能相同,最好的走向应该是互补而非取代。 每一次新的AI技术出现,市场都是喜忧参半,把时间拉到整个历史进程来看,ChatGPT所表现出来的效果和市场认可度,依然对人工智能浪潮意义重大。
大学生用GPT-3写论文遭重罚,ChatGPT或引发学术圈大地震
本科论文

大学生用GPT-3写论文遭重罚,ChatGPT或引发学术圈大地震

编辑:Aeneas 【新智元导读】ChatGPT出炉后,引发了学术界的大恐慌,写论文这么溜的AI机器人,真的不会被学生滥用? ChatGPT诞生之后,用自己强悍的文本创作能力,不断刷新着我们的认知。 AI即将给大学校园带来怎样的爆炸性改变?似乎还没人做好准备。 Nature已经发文,担心ChatGPT会成为学生写论文的工具。 文章链接:https://www.nature.com/articles/d41586-022-04397-7 无独有偶,一位加拿大作家Stephen Marche痛心疾首地呼吁:大学的论文已死! 用AI写论文,太容易了 假设你是一位教育学教授,你为学术布置了一篇关于学习风格的论文。一位学生提交了一篇文章,开头如下: 「学习风格」的构建是有问题的,因为它无法解释学习风格形成的过程。有些学生可能会因为自己独特的经历,而形成一种特殊的学习方式。其他人可能会通过尝试适应不太适合他们需求的学习环境,来形成特定的学习方式。最终,我们需要了解学习方式与环境和个人因素之间的相互作用,以及这些因素如何影响我们的学习方式和我们体验的学习类型。 通过还是不及格?A-还是B+? 如果你最终得知,这个学生压根就没亲手写过这篇文章,你又会给出怎样的成绩? 实际上,这篇文章是一位英国教授Mike Sharples用GPT-3来生成的。 对于GPT-3的这篇大作,Sharples认为已经达到了研究生的水平。 Sharples教授希望,自己的这个尝试能敦促老师们「重新去思考教学和打分」。 他说,AI会成为学生作弊的工具,当然,它们也可以成为强大的助教,或提高我们创造力的工具。 学生:用AI写论文,不算作弊 在今年5月,就发生过一件颇有争议的事。 新西兰的一名学生承认自己是用AI来撰写论文,不过,他是把它当作语法和拼写检查的工具。 因此,这名学生受到了处罚,但他很委屈。 「我是个好学生,我去上所有的课,听所有的讲座,读了所有阅读材料,但就因为我没有足够雄辩地写作,就判定我该受处罚,这是不对的。」 的确,很多使用AI做作业的学生并不觉得自己在作弊,因为通常大学的学生指南里只会规定:不能让别人代写作业。但GPT-3不是「别人」,它是一个AI。 AIGC令人惊叹,也令人害怕 现在,没人可以忽视这一点:AIGC的宇宙正在快速膨胀。 去年12月,OpenAI发布了一个名为ChatGPT的高级聊天AI,它在互联网上掀起了新一轮惊叹的浪潮。 谷歌发布了新的应用,这些应用允许人们用文本描述概念,并将它们呈现为图像。 创意人工智能公司Jasper在10月份获得了15亿美元的估值…… 现在,离学生们自己找到文本生成器的时间,不会太长了。 人文教育会迎来怎样的改变? 在人文教育中,论文——尤其是本科论文——一直是核心。 就是通过论文,我们去教学生们应该如何研究,如何思考,如何写作。 而现在,这个传统即将被彻底颠覆。 上周,多伦多大学的副教授Kevin Bryan在推特上,对ChatGPT的出现表示震惊:「你不能再布置带回家的考试或家庭作业了……即使在涉及跨领域知识的特定问题上,ChatGPT的回答都太棒了。」 显然,构建语言技术的工程师和教育工作者,都还没有为ChatGPT造出的后果做好准备。 长期以来,人文主义者和技术专家之间一直存在鸿沟。 在1950 年代,C. P. Snow发表了他著名的演讲,随后发表了论文「两种文化」,将人文和科学共同体描述为两个彼此失去联系的部落。 「人文知识分子在一极,科学家在另一极,」Snow写道。 「两者之间存在相互不理解的鸿沟——(尤其是在年轻人中)他们会充满敌意,彼此厌恶,但最重要的是,他们之间缺乏理解。他们对彼此有一种奇怪的扭曲形象。」 Snow的论点是对一种知识世界主义的呼吁:文人忽视了热力学定律的基本见解,而科学家们忽视了莎士比亚和狄更斯的荣耀。 而Snow发现的这种裂痕,恐怕只会越来越深。...