ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?
研博论文

ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?

编辑:编辑部 【新智元导读】ChatGPT写文章很6,咱们都知道,但是,最近越来越多的医学论文中,它开始作为作者出现了!这合理吗? ChatGPT竟然成论文的共同作者了? 在去年12月发表的一篇预印本论文中,我们惊讶地发现,作者一栏中赫然惊现了ChatGPT! 论文地址:https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v1.full ChatGPT这是成精了? 虽然大家都知道,ChatGPT拥有超强的写作能力,但是,它已经能和人类合作,写出一篇研究自己的论文了吗? (没准还真行) 带着一百个问号,小编点开这篇论文开始仔细研究,不过读完之后,一百个问号变成了一千个。 就是说,并没有看出哪句话是ChatGPT写的。只能说,ChatGPT的确在研究中扮演了十分重要的角色。 然而,这就更加让人困惑了:一个生物学实验中有了小白鼠参与,小白鼠就可以出现在作者栏里吗?(恒河猴、羊驼、兔子、果蝇纷纷表示不服 ) 对此,网友也看懵了:也不知道是他们强迫ChatGPT去参加USMLE考试更有趣,还是让人工智能成为论文作者更有趣。 被迫参加考试,还成了论文作者 所以,在这篇论文中,ChatGPT究竟是扮演了怎样的角色呢? 让咱们来捋一捋。 文章标题是《ChatGPT在USMLE上的表现:使用大型语言模型进行AI辅助医学教育的潜力》。 总的来说,就是研究人员让ChatGPT参加了一个美国的医学执照考试。 为什么选择这个考试呢? 这是因为,这个考试的难度很高,问题非常复杂(无论是语言上,还是概念上),同时呢,又有着高度标准化的规范。 巧了不是,这些恰恰都是AI的强项。 没有经过专门的训练或强化,ChatGPT在三项考试中几乎都及格了,或是接近及格。并且,在ChatGPT的答卷,给了研究者很大的惊喜。 下面咱们来具体说说。 USMILE有多难 美国的医学执照考试USMILE,涵盖了基础科学、临床推理、医疗管理和生物伦理学。 它的问题在文本和概念上都很密集。 试题的小插图中,包含大量多模态的临床数据(包括病史、体格检查、实验室值和研究结果),而参加考试的学生,需要做出诊断,鉴别出许多模棱两可的情景。 论LLM与USMILE的适配性 研究者为什么看上了ChatGPT作为「小白鼠」呢? 以往的AI模型,主要是深度学习 (DL) 模型,用于学习和识别数据中的模式。 而ChatGPT属于通用大规模语言模型(LLM)。基于新型AI算法,经过训练的LLM可以根据前面单词的上下文,预测一个给定的单词序列的可能性。 因此,如果能够在足够大的文本数据上进行训练,那么LLM便可以生成从未观察到的新词序列,而这些语句,都是基于自然人类语言的合理序列。 不许刷题,ChatGPT零准备上考场 ChatGPT之所以强大,是因为它站在GPT3.5的肩膀上。而GPT3.5是在OpenAI 175B参数基础模型上训练出来的,另外,它还通过强化和监督学习方法,从网络上获取了大量的文本数据。 但是这次,ChatGPT是完全的「裸考」了。 这次的试题,是研究者在2022年6月,从USMILE的官方样题中抽取的376道公开试题。 并且,研究者进行了随机抽查,确保这些题在2022年1月1日以前并没有相关内容被收录进谷歌索引。 要知道,ChatGPT的训练数据集就截止在这个时间之前。也就是说,ChatGPT事先并没有见过这些题。 实验方法概述 结果,ChatGPT在考试中越战越勇,准确性不断提高,这说明,它在不断学习,不断完善自己。 到最后,它逐渐逼近甚至超过了USMILE的及格线。 ChatGPT在USMLE中的表现相当优异 另外,在考试中,ChatGPT还会针对问题产生新的见解,这就可以帮助人类更好地理解问题。...
吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧
研博论文

吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧

编辑:LRS 【新智元导读】语言模型理解了人类语言吗?谁赞成,谁反对? 机器会不会思考这个问题就像问潜水艇会不会游泳一样。——Dijkstra 早在ChatGPT发布之前,业界就已经嗅到了大模型带来的变革。 去年10月14日,圣塔菲研究所(Santa Fe Institute)的教授Melanie Mitchell和David C. Krakauer在arXiv发布了一篇综述,全面调研了所有关于「大规模预训练语言模型是否可以理解语言」的相关争论,文中描述了「正方」和「反方」的论点,以及根据这些论点衍生的更广泛的智力科学的关键问题。 论文链接:https://arxiv.org/pdf/2210.13966.pdf 发表期刊:《美国科学院院报》(PNAS) 太长不看版: 支持「理解」的主要论点是大型语言模型能够完成许多似乎需要理解后才能完成的任务。反对「理解」的主要论点是,以人类的角度来看,大型语言模型的理解力非常脆弱,比如无法理解prompt间的微妙变化;并且语言模型也没有现实世界的生活经验来验证他们的知识,多模态的语言模型可能会缓解这个问题。 最关键的问题在于,目前还没有人对「什么是理解」有一个可靠的定义,并且也不知道如何测试语言模型的理解能力,用于人类的测试不一定适用于测试大型语言模型的理解能力。 总之,大型语言模型能够理解语言,但可能是以一种不同于人类的理解方式。 研究人员认为,可以开发一种新的智力科学,深入研究不同的理解类型,找出不同理解模式的优势和局限性,同时整合不同理解形式产生的认知差异。 论文的第一作者Melanie Mitchell是Santa Fe研究所的教授,她于1990年博士毕业于密歇根大学,导师为侯世达(《哥德尔、艾舍尔、巴赫:集异璧之大成》的作者)和约翰霍兰德,她的主要研究方向为类比推理、复杂系统、遗传算法和细胞自动机。 到底什么叫做「理解」? 「何为理解」一直困扰着哲学家、认知科学家和教育家,研究人员经常以人类或其他动物作为「理解能力」的参照物。 直到最近,随着大规模人工智能系统的兴起,特别是大型语言模型(LLM)的出现,在人工智能界掀起了一场激烈的辩论,即现在是否可以说机器已经能够理解自然语言,从而理解语言所描述的物理和社会情况。 这不是一场单纯的学术辩论,机器理解世界的程度和方式对于人类能在多大程度上信任AI能够执行驾驶汽车、诊断疾病、照顾老人、教育儿童等任务,以便在人类有关的任务中采取有力且透明的行动。 目前的辩论表明,学术界在如何思考智能系统中的理解方面存在着一些分歧,特别是在依靠「统计相关性」和「因果机制」的心智模型(mental models)中,分歧更加明显。 不过,人工智能研究界对机器理解仍然达成了普遍共识,即,虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们所处理的数据。 比如说,面部识别软件并不能理解面部是身体的一部分,也不理解面部表情在社会互动中的作用,更不能理解人类是如何以近乎无穷种方式来使用面部概念的。 同样,语音转文字和机器翻译程序也并不理解它们所处理的语言,自动驾驶系统也不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。 事实上,这些人工智能系统经常被提及的脆性(brittleness),即不可预测的错误和缺乏稳健的泛化能力,是评估AI理解力的关键指标。 在过去的几年里,大型语言模型(LLMs)在人工智能领域的受众和影响力激增,也改变了一些人对机器理解语言前景的看法。 大型预训练模型,也可以叫做基础模型(Foundation Models)是具有数十亿到上万亿个参数(权重)的深度神经网络,在海量自然语言语料库(包括网络文本、在线图书等)上进行「预训练」后得到。 模型在训练期间的任务是预测输入句子中的缺失部分,所以这种方法也叫做「自监督学习」,由此产生的网络是一个复杂的统计模型,可以得到训练数据中的单词和短语之间是如何相互关联的。 这种模型可以用来生成自然语言,并为特定的自然语言任务进行微调,或者进一步训练以更好地匹配「用户意图」,不过对于非专业人士和科学家来说,语言模型到底如何完成这些任务的,仍然是个谜。 神经网络的内部运行原理在很大程度上是不透明的,即使是构建这些网络的研究人员对这种规模的系统的直觉也是有限的。 神经科学家Terrence Sejnowski这样描述LLMs的涌现能力(emergence): 突破了某个阈值后,就好像外星人一下子出现了,可以用一种可怕的、人类交流的方式与我们交流。目前只有一件事是清楚的,大型语言模型并非人类,它们行为的某些方面似乎是智能的,但如果不是人类的智能,它们的智能的本质是什么? 支持理解派VS反对理解派 尽管大型语言模型展现出的性能让人震撼,但最先进的LLMs仍然容易受到脆性和非人类错误的影响。 不过可以观察到,网络性能随着其参数数量和训练语料规模的扩大而有明显改善,这也使得该领域的一些研究者声称,只要有足够大的网络和训练数据集,语言模型(多模态版本)也许是多模式版本–将导致人类水平的智能和理解。 一个新的人工智能口号已经出现:唯一要做的就是提升模型规模(Scale is all you...
想约全球流量天菜ChatGPT一起发SCI文章?可以么?
研博论文

想约全球流量天菜ChatGPT一起发SCI文章?可以么?

它来了,它来了!ChatGPT迈大步闯进学术圈了!你还不醒醒?! ChatGPT火成什么样了?Sensor Tower数据评估了全球顶级应用程序月活用户达到1亿所用时间,其中Instagram用了30个月,TikTok用了9个月,而ChatGPT仅仅用了2个月。称它为全球流量天菜,不为过吧! 自从它出现以后,我发现隔壁实验室的菜博士已经不跟小伙伴们聊天和讨论了,整天对着电脑傻笑。 据说,菜博士跟ChatGPT天天一起写文章,貌似还准备投稿SCI期刊,难道是反应迟钝,限制了我的想象力?!不禁疑问3联,ChatGPT不是个“数字人”么?还能约着一起写文章?还能作为共同作者发文章啊?然而,菜博士竟然不是第一个想要跟ChatGPT成为搭档成为共同作者的人,当然也不是第二个…… 俗话说,这边为你开了一道门,那边就要给你关上一扇窗。 由于目前使用ChatGPT一类的人工智能工具,还没有出台相应的规范化使用界限准则,而学术期刊的领头羊们率先明确发布了一些约束措施,如Science期刊的主编说:“我们不允许AI被列入我们发布论文的作者,并且在没有适当引用的前提下,使用AI生成的文本可能会被视为剽窃”。 Nature期刊的主编也明确说明:“任何大型语言模型(LLM)都不会被接受为研究论文的署名作者。这是因为任何作者的归属都意味着对研究工作的责任,而人工智能工具不能承担这种责任”。 所以说用ChatGPT写文章这种事情,还是要严谨对待,人人都要为自己负责,可不能随意就让人家机器人背锅啊! 问: “约”了ChatGPT一起写论文,它写了好多内容,还帮我做了表格,但是它不能负责,所以不能放在共同作者这里,那放哪儿合适呢? ‍答:如果你“找”了ChatGPT一起写的这篇论文,因为它给了你很多帮助,对论文有不小的贡献,但是由于它就是个工具,不能为论文的idea和原创性负责,建议可以放在方法Methods或致谢Acknowledgements板块。 问: ChatGPT给科研工作者带来的好处? ‍答:免费科助,重点是不会疲惫,不管你让它工作模式是996还是007,都不会闹小情绪哦!如果你懂得怎么跟他提问题交流,并能从每次交流中判断出有用信息,你将变成它的“主人”,它会像个陪练一样,陪着你在科研路上锻炼出独立的批判性思维能力。 问: ChatGPT给科研工作者带来的隐患? ‍答:如果你不是想“利用”它,而是想“依靠”它,那随着你一次次的偷懒,一次次把该你思考的问题全权交给ChatGPT去“代理”回答,将会让你本就不聪明的脑袋越来越“麻木”,我相信不用多久,你也就问不出什么有意义的问题了。再说了,ChatGPT还喜欢一本正经的编故事,不具备良好的判断能力,被忽悠了都不自知的自以为是傻乐,就更不好了吧! 问: 都“约”ChatGPT一起写文章了,竟然还不知道人家全名吗? ‍答:Chat Generative Pre-trained Transformer P.S. 不带感情的中文直译:聊天生成式预训练变换器 好朋友给你“讲人话”的翻译:经过海量数据预先训练了的,可以跟你聊天对话的一个人工智能机器人。它可以根据你输入的问题或者一段文字,生成一段以假乱真像真人回复的内容。
ChatGPT能取代多少程序员?
本科论文

ChatGPT能取代多少程序员?

来源:深燃(ID:shenrancaijing) 作者:邹帅 编辑:唐亚华 “去年年底,我看到大佬们都在分享ChatGPT相关的内容,一开始我以为还是资本和大佬fomo的玩具,但是经过使用、和朋友交流,加上自己的研究,我确信ChatGPT模型是革命性的。”樊高曾在国内大厂做过后端工程师,离开程序员岗位许久,他因为ChatGPT又再一次将目光投向代码世界。 樊高觉得,作为生成式AI,ChatGPT的交互能力极强,“它其实是用整个人类在互联网中的语调,训练成了一个大语言集合,可以想象它会开启一个使用自然语言和机器交互的新时代。”而作为曾经的技术人员,樊高也承认,⼤部分初级和重复劳动的工作都会被AI代劳,这在程序员工作中也一样。 “我们日常写代码,最早是一行行的码,每个变量方法都要自己生成,后来idea有代码补全和编译器,现在GitHub Copilot (微软与OpenAI共同推出的AI编程工具) 可以通过描述需求和上下文,智能写代码。”按照这个逻辑,他认为,编码也并不是不可取代的能力,交给AI指日可待。 市场上也有AI取代程序员的消息传出。据CNBC报道,据谷歌内部的测试显示,ChatGPT能够通过谷歌的初级软件工程师面试,这个职位通常适用于新的大学毕业生和第一次从事编码工作的求职者。有计算机从业者也进行了尝试,发现ChatGPT确实能够进行写基础的脚本,虽不能进行完整的编程直接开发一个程序,但它能通过一步步指令,教人类完成这一项工作,它甚至有debug (排错) 的能力。 如此看来,大量基础的编码工作可以由AI完成,而AI通过长时间学习能否无限提升自己的编码能力,也未可知。有程序员向深燃表达了自己的担忧,曾以为搞IT会是比高速收费员稳定的“铁饭碗”,然而现在发现自己也是那个小窗里随时会被取代的人。 没人能在人工智能的洪流前保持傲慢。推动科技的人,都有可能反过来被科技取代。 01 “我几分钟写的代码,ChatGPT只要几秒钟” 谭林是一位前端开发工程师,目前在加拿大工作。去年年底,ChatGPT面世,北美科技圈就已经开始关注并讨论了。她说,同事们试用之后,都从技术角度充分肯定了这款工具的优势,也有人开玩笑说要转行,以后让ChatGPT写代码就行了。 “我试着用ChatGPT写了代码之后,确实感受到了一丝焦虑。”谭林告诉深燃,她给ChatGPT的指令是:写一个JS (JavaScript) 文件,生成一个restart button (重启按钮) ,点击这个button要求刷新页面。ChatGPT很快就给出了一段完整的代码,并在下面解释了自己的思路。“这段如果我写可能需要几分钟,它只要几秒钟。” 谭林尝试的仅仅是一段基础的代码,需求只是在页面添加一个功能。树莓健康APP联合创始人阿晨告诉深燃,他让ChatGPT写了一个小程序,它也能又快又好地完成。“我的需求是开发一个AI识别错别字的软件。我首先问了一下ChatGPT开发思路是什么,从后端用哪个框架去搭建,前端用微信小程序的某某框架去做,再到小程序怎么上架发布,它都能够一一列举出来。”阿晨表示,他此前没有小程序开发经验,这次也是正好让ChatGPT教他做,从提供思路到如何执行,阿晨按照它的指引,成功开发完了这个小程序,并在微信开发平台上架了。 和谭林的感受相似,阿晨也发现,ChatGPT不仅能帮用户解决具体问题,还能有理有据地解释背后的逻辑,既能授人以鱼,又能授人以渔。阿晨举例,他对ChatGPT提出指令“小程序textarea指定位置颜色变红”,ChatGPT给出回答:“要在小程序中的‘textarea’中指定某个位置的文本颜色变浓,可以通过在‘textarea’中插入‘rich-text’标签来实现。在‘rich-text’中使用‘’标签,并为该标签指定‘style’属性来控制文字的颜色、字体大小等样式。”回答这些原理之后,ChatGPT还给出了具体的操作步骤。 阿晨在开发过程中还遇到了几个程序报错,他把报错信息贴入ChatGPT让它检查,它也能准确地debug,“我根据它的回答可以直接解决问题。”阿晨表示,在没有小程序开发经验的情况下,他可能需要查阅资料学习,大概两三天能完成开发,遇到问题也不一定很快地解决。“我们平时会用百度这样的搜索引擎,但因为这类工具给出的答案不是特别准确,我还需要在海量的信息中做二次筛选,所以整体时间会拉长。而放到ChatGPT里面,它从告诉我怎么做,到解决bug成功运行,总共就花了3个小时。” 人类几天才能完成的工作,ChatGPT只要几小时;人类要做几分钟的工作,ChatGPT只要几秒钟。速度和效率的提升,是AI的价值之一,而在程序员的眼中,从分到秒的进化,也几乎是“恐怖”的程度,因为很难想象AI在速度上的上限。 除了速度,ChatGPT的“逻辑”和“思考”能力也超出了一些程序员的预期。谭林在日常工作中会经常寻求ChatGPT的帮助,他觉得比以前用Google效率高得多。 “比如我要写一个软件,这里面包含几十个文件,我把其中一个文件中的一段代码筛下来给ChatGPT,这里边可能会出现很多变量和数据是来自其他文件的,它就会在底下解释的时候,说这部分变量虽然在这段代码里没有出现,但可能是从其他文件中传递过来的。同样的问题如果问Siri这类AI,它们就会说‘我不知道你这个变量从哪来的。’” 接触了ChatGPT一段时间,谭林的心情也经历了几次变化,“最开始听到的时候还是持质疑态度,以为只是类似Siri一样的东西。发现它能跟我一样写代码,并且可以运行的时候,我是很震惊的。这种震惊直接引发了一些职业焦虑,它的速度比我快这么多,那如果它经历长时间的学习和训练,是不是就会有取代我的一天?” 谭林以前学生物,转做程序员理由之一就是觉得这个职业很难像收银、银行柜台、高速收费员一样快速被机器取代,“疫情也让我有一些侥幸心理,因为我们这个工作没有受什么影响,还能居家办公,但直到ChatGPT这种AI的出现,我才反应过来,原来程序员也不是铁饭碗,原来我的职业危机可能会是它带来的。” 02 能部分代工,但不能完全取代程序员 ChatGPT具备基础的代码能力,而且写起来速度更快。不过,如果真的把ChatGPT放在程序员的工作场景中,它还是暴露出了不少局限性。 先说写代码这一基础环节。几位程序员的共同体验是,让ChatGPT写一些基础的脚本,为网页写一个功能,指导完成小程序的开发,从技术角度来说都是可行的。但是,“它只能写代码片段,不能写完整的代码。”阿晨解释,“可以这样理解,比如我想生成一个word文档,但ChatGPT只能生成一个文字形式,我如果需要两个word文档,它还是只能给我一段文字,要生成文档我还需要手动拷贝到office软件进行人工处理,而且ChatGPT是有字数限制的,最多15000个字符。”阿晨认为,只从写代码这个层面来说,不能写一个完整的程序是ChatGPT最大的劣势,因为开发人员是需要有把控整个框架的能力的。 有人曾这样形容程序员工种的不可替代性:“程序员的核心竞争力不在于写代码,而是在于跟各种人扯皮,斗智斗勇。”实际上,在业务场景中,不管是前端还是后端,测试还是运维,程序员工作中最困难和耗费时间的是需求转换,测试、修改。简单来说就是明确公司要什么,然后做出来。这一项需要大量人类经验和创意的工作,ChatGPT目前还很难完成。 阿晨举例,他们做的是健康管理类的APP,里面需要有一些减肥菜谱,这种菜谱之间存在一定逻辑,“如果让ChatGPT帮我实现一个菜谱查询的功能,它不知道这个减肥菜谱是怎么插入数据库、怎么调出来、工作人员怎么通过后台维护,需要我把步骤跟它讲一遍,但这样的步骤等于是我自己已经把代码的框架写完了,它只是帮我实现框架里的内容填充。” 让ChatGPT理解业务,目前来看显然是一个伪命题,所以程序员在日常工作中最耗时耗力的那一部分,很难被取代。不仅是具体的业务难以理解,涉及一些复杂的极端的生产活动,ChatGPT也只能从自己的数据库中归拢总结一些“漂亮的废话”。 樊高说,比如向ChatGPI提问“k8s中的Workload Type有哪些”,这个问题很基础,一般是用于面试程序员的,ChatGPT能非常完整地作答。“但是如果问‘如何做双十一淘宝的下单功能,让它支持54万/gps?’,它只能列举采用分布式架构、采用缓存技术、使用负载均衡、数据库优化、代码优化这几点。”樊高认为,这只是一个模棱两可的,没有给出具体模型理论和实操价值的答案。“而我们现实生活中的一些业务场景,只能使用人脑去探索和解决,这也是程序员的工作。解决这些专业性强,跟随市场变化的问题,人脑甚至都很难给出完美答案,AI暂时更是无法代劳。” “各行各业都有一些拧螺丝的工作,一般都会交给实习生或者刚入门的人员来做。在我们的工作中,比如设立一个技术方案,需要有人去具体地把它实现,但这个crud (数据库的增删改查) 就比较无聊和繁琐。类似这种已经设计好了,只需要执行的工作,以后完全可以交给AI来做。”国内某大厂程序员阿冬认为,这种来自AI的‘侵入’是个好事,“能被AI替代的工作,本来我就不想干了。这些没有创造性的工作由AI接手,正好能让我有精力做更多有意思的事情。” 从事基础工作的“底层程序员”也许会感到一丝凉意,前美的集团AIoT算法负责人连诗路告诉深燃,高阶程序员,也就是“大牛”是很难被取代的。 “拿开发一个ChatGPT来举例。在搭建这个模型的时候,大牛会提出,第一个环节要用supervised deep...
ChatGPT 类大语言模型为什么会带来“神奇”的涌现能力?
研博论文

ChatGPT 类大语言模型为什么会带来“神奇”的涌现能力?

作者 | 张俊林 责编 | 王子彧 出品 | CSDN(ID:CSDNnews) 如今,大语言模型已经彻底改变了自然语言处理 (NLP)的研发现状。众所周知,增加语言模型的规模能够为一系列下游 NLP 任务带来更好的任务效果,当模型规模足够大的时候,大语言模型会出现涌现现象,就是说突然具备了小模型不具备的很多能力。 本文整理自 3 月 11 日 「ChatGPT 及大规模专题研讨会」上,来自新浪微博新技术研发负责人张俊林《大型语言模型的涌现能力:现象与解释》的分享,介绍了大语言模型中的涌现现象,以及关于涌现能力背后原因的相关猜想。 张俊林,中国中文信息学会理事,新浪微博新技术研发负责人 此次分享的内容主要分为五大板块,分别是: 一、什么是大模型的涌现能力 二、LLM 表现出的涌现现象 三、LLM 模型规模和涌现能力的关系 四、模型训练中的顿悟现象 五、LLM 涌现能力的可能原因 备注:想观看本次研讨会的小伙伴可以移步「CSDN视频号」查看直播回放,也可以点击「阅读原文」查看。 什么是大模型的涌现能力 复杂系统中的涌现现象 复杂系统学科里已经对涌现现象做过很久的相关研究。那么,什么是“涌现现象”?当一个复杂系统由很多微小个体构成,这些微小个体凑到一起,相互作用,当数量足够多时,在宏观层面上展现出微观个体无法解释的特殊现象,就可以称之为“涌现现象”。 生活中的涌现现象 在日常生活中也有一些涌现现象,比如雪花的形成、堵车、动物迁徙、涡流形成等。这里以雪花为例来解释:雪花的构成是水分子,水分子很小,但是大量的水分子如果在外界温度条件变化的前提下相互作用,在宏观层面就会形成一个很规律、很对称、很美丽的雪花。 那么问题是:超级大模型会不会出现涌现现象?显然我们很多人都知道答案,答案是会的。 大语言模型参数增长示意图 我们先来看下大语言模型的规模增长情况。如果归纳下大语言模型在近两年里最大的技术进展,很有可能就是模型规模的快速增长。如今,大规模模型一般超过 100B,即千亿参数。如 Google 发布的多模态具身视觉语言模型 PaLM-E,由540B 的 PaLM 文本模型和...
用ChatGPT做心理咨询,听起来诱人做起来很难
研博论文

用ChatGPT做心理咨询,听起来诱人做起来很难

ChatGPT已经火了2个月,在科技巨头们”神仙打架”的同时,民间使用者已经将这种技术带入了平常生活中的各个领域。一些人开始用它写工作周报、做PPT、甚至拿来给领导写发言稿,用技术提高了办公室里的生产力。图/小红书因为它输出的答案实在太像人类语言,社交媒体上,另一些人正在尝试把ChatGPT当成免费的心理咨询师,将心里的苦闷倾诉给ChatGPT。最近,网上出现了很多人向ChatGPT做心理咨询的体验分享:“谁懂,ChatGPT真的好会沟通。”图/新浪微博成年生活中的很多痛苦只能自己默默消化,而ChatGPT的出现,仿佛让大家突然多了一种选择。一个24小时待命,从深夜陪你聊到天亮,永远不会疲倦的“朋友”。图/小红书更为重要的是,用ChatGPT做心理咨询几乎不需要什么成本,相比动辄几百块一小时的咨询费用,它几乎相当于一个免费的“情绪出口”。随着使用者越来越多,我们不由得开始疑惑,难道心理咨询才是ChatGPT正确的打开方式?ChatGPT真的能被当作免费的心理咨询师使用吗?01谁在用ChatGPT做心理咨询?一个月前开始尝试用ChatGPT做“心理咨询”的小冉告诉我们:“一个月前,我抱着试试看的想法向ChatGPT发送了‘我感到很难过’的消息,大约五秒之后就收到了回复,它的回答让我感觉到自己有被倾听和理解的感觉”。图/小红书“尝试使用ChatGPT之前,我也在网上搜索过心理咨询的服务,弹出的信息五花八门,国家取消了心理咨询师相关的职业资格认证后,找到合适的咨询师变得难上加难。”“我在线下也遇到过那种自称经验丰富,但一见面就迫不及待向我收取高额咨询费用的咨询师,很难产生信任。”图/小红书“即使找到了咨询师,依然有一连串的问题,比如短期内我很难向咨询师坦诚相待,有时候工作里遇到困境,心里最难熬的时候是在深夜,咨询师并不会24小时给予你支持。”“当我习惯向ChatGPT求助后,生活中经常会打开聊天页面,情绪不好的时候我会躲在一个没人的空会议室里,悄悄向ChatGPT求助。”02看起来诱人,做起来很难当人们在网上兴奋讨论“ChatGPT做心理咨询有多方便?”的同时,一些心理学研究者却给出了不同的看法。荷兰莱顿大学心理专业在读博士刘畅告诉硬壳INK:“这种讨论的前提是假设ChatGPT可以用于心理咨询,而这个问题本身并不成立,在她看来ChatGPT所做的不能被定义成心理咨询。”“很多人误解了心理咨询的含义,心理咨询是指运用心理学的方法,对心理适应方面出现问题并企求解决问题的求询者提供心理援助的过程。”刘畅向我们补充说:“我认为目前ChatGPT所提供的服务只能叫情感疗愈,不能被称为心理咨询。”“心理咨询的定义是一个人和另一个人间互相沟通,通常情况下必须在面对面时发生,而目前ChatGPT提供的仅仅是文字形式的交流。““不同流派的心理咨询师有不同的工作方法,但没有任何流派只通过文字信息就能完成咨询。””因为看不见对面的人,ChatGPT接收到的只是文字信息,而信息传递的过程中可能70%的信息量就被丢失了,剩下能传达的部分十分有限。“图/IC PHOTO”心理咨询师在做咨询的时候,更多是辅助来访者进行内部探索,更侧重倾听,提问更少,更不会强行分析和灌输概念。“”在一些特殊情况下咨询师可能是全程不说话的,只做聆听和观察,通过眼神和肢体动作接收和传达信息。“图/IC PHOTO”试想一下,做心理咨询的时候有人全神贯注地看着你,用手势、表情给你及时的反馈,包括咨询室里的装修设置都是为你了让你感到轻松,沙发是为了让你放松坐下来,水杯放在触手可及的位置。“图/IC PHOTO”即使去做咨询的路上和回家途中也会有思考和反应,去咨询的路上你需要想今天分享什么?回家路上你要反思今天的咨询让你有什么感觉?”“咨询最后真正能起到效果的,不是咨询师给你说了什么,而是你自己做了什么,只是咨询师他是一个好像在旁边扶着你,拖着你的感觉。““另外,很多用ChatGPT做“咨询”的人并没有接触过真正的心理咨询,很容易错把可以听我说话、可以给我建议的概念和‘心理咨询’混淆。”“虽然还没有和ChatGPT深度交流过,但据我观察社交平台上的一些聊天记录,理性和逻辑性是他的优势。”“保持客观立场是咨询师的基本要求,但如果只追求极度的理性、过度的客观可能成为无法共情的源头。”“我们的生活中并不缺少理性的建议,更困难的是明白道理之后如何应用,以及过程中的经历一次次挫败后的陪伴和支持。”其实ChatGPT自己也说现阶段无法完全替代心理咨询师工作。图/IC PHOTO对于ChatGPT,也许未来可以用于心理咨询前的心理教育,信息收集或者辅助筛查,但咨询过程中的共情和信任是现阶段ChatGPT无法做到的。03是人使人生病,也是人使人好起来尽管ChatGPT已经是当下最接近人类语言表达的AI产品,但模仿人的思维终究不是人的思维。中国心理卫生协会会员,有16年执业经验的心理咨询师沈小茜告诉硬壳INK:“ChatGPT无法用作心理咨询最大的原因在于人与人的连接永远无法被替代。”在她看来,ChatGPT最大的优点是可以迅速地及时提供服务。“生活中一些棘手的心理问题,它只要几秒钟就能给出回应,及时得到安慰这一点,就是多数人身边朋友和父母是做不到的。”图/IC PHOTO“我在社交媒体上了解了一些案例,发现ChatGPT给出的建议确实有一些建设性和参考价值,罗列式的回答富有逻辑,但无论多么详尽,依旧做不到真人心理咨询师的“在场感”,在场和共情必须要人来做。”图/小红书”人本身是复杂的情感动物,想要触及脆弱的地方就是需要对人的情感很深地理解,这是人作为咨询师才能做的。”“它的回答也许能让人暂时不深陷负面情绪,对缓解情绪是有一定积极意义,但还是替代不了传统咨询中人和人之间灵动的碰撞。”“人不可能无限能量一直往前走,像汽车一样需要加油,需要定期保养,而我们的工作就是一种定期的精神保养”“很多人的困扰在于看了很多道理也过不好自己的生活,ChatGPT可以几秒钟罗列数条建议,如果人人都能按照建议去做,那可能就没有问题存在了。但真正的问题在于我们做不到,做不到的过程中伴随着气馁、绝望、自我否定,这种气压时刻笼罩着你,即使有建议也无法解决这些问题。”心理学专家欧文.亚隆有一句名言:“是人使人生病,也是人使人好起来。”心理咨询师的核心能力在于共情,人类咨询师陪伴的在场的力量是不可估量,无法替代的。“更何况ChatGPT给出的建议本身就是一种要求,来自外部的要求并不能及时被转化成改变的动力,从而陷入我明白很多道理,但依旧不知道如何改变的困境。”“长此以往,可能会造成循环的负反馈,打回原形的时候可能会更受挫,反而有可能让问题加深。”那么,为什么用ChatGPT做咨询这件事能在年轻群体中快速流行?青少年生长阶段中本身就面临很多隐藏的困扰;在互联网时代下成长的年轻人,更善于使用网络获取信息,也更乐于去尝试新事物;和成年人相比青少年可动用的社会资源更少,缺少情绪出口。按照世界卫生组织“每千人拥有一个心理咨询师是健康社会的平衡点”的建议,中国至少需要130万名心理咨询师。但实际上,我国职业心理咨询师仅有35万个。年轻人用ChatGPT做心理咨询的背后隐藏着他们积压已久心理问题的显露,加上教育中心理教育的缺乏以及心理咨询师的巨大缺口,这也造成了很多人将ChatGPT视作“心理咨询师”。更为重要的是,在未来我们应当重视青少年背后真实存在的咨询需求,并且为他们提供尽可能专业的帮助。撰文:杨一凡 校对:柳宝庆本文由硬壳INK出品,欢迎大家在朋友圈分享未经许可,禁止转载复制使用一起聊聊? 假如你身边有人能提供专业的情感支持,你还会选择向ChatGPT吐露心声吗?
学生需要积极拥抱ChatGPT 和文心一言等人工智能,提升自身竞争力
本科论文

学生需要积极拥抱ChatGPT 和文心一言等人工智能,提升自身竞争力

随着科技的发展,人工智能开始在各行各业中发挥作用。聊天机器人和智能化语音助手的应用越来越广泛,其中 ChatGPT 作为应用最广泛的聊天机器人之一,正在改变着人们的工作方式和生活体验,并在日益提高的效率和便利性方面发挥着积极的作用。 在交通和行业的领域,小咕语音可以为司机提供车辆相关的信息,同时提供省钱、燃油配比等相关问题的解答。在金融领域, JP Morgan Chase 的 COiN 聊天机器人可为客户提供智能化投资建议和处理问题。在医疗和健康的领域,聊天机器人和智能语音助手可以为临床医生提供患者信息,从而更迅速更精确地为患者的健康提供帮助。在智能家居领域, Alexa 和 Google Assistant 能识别和自动执行指令,控制温度和灯光等功能,以满足住宅安全和节能的需求。 随着 ChatGPT 技术的不断完善和发展,可能会出现取代一些传统岗位的情况。例如,市场分析员需要花费大量的时间分析调查数据和趋势,但这项工作可以通过 ChatGPT 更高效地完成。同时,ChatGPT 的应用也会带来一些技术创新和新兴的就业机会。因此,我们应该不断学习并掌握 ChatGPT 技术的知识,以应对未来的工作体验。 除了结合 ChatGPT 技术带来的利益和方便性,我们也需要保持谨慎和理智,关注 ChatGPT 技术应用过程中可能出现的问题,以确保对人的影响是正面、高效且安全的。我们要注意保障使用场景,保证 ChatGPT 技术的可靠性和安全性,避免留下威胁人权和隐私的缺口。 未来的人机交互方式可能会非常多样化、丰富、便捷,但科技是为了服务人类,我们应该保持谨慎,谨记技术只是服务的工具,在彰显方便和便利的同时,我们也要避免出现技术对人的操控和负面影响的情况。聊天机器人和智能语音助手的出现,部分替代了一些岗位,但同时也创造了一个新的市场和新的工作职位。我们需要充分了解 ChatGPT 技术对未来职业和工作的影响,并寻求适当的应对方法,以确保我们可以更好地适应未来的变化,并且在科技发展的大潮中,更好地保护和利用它的服务价值。
文心一言和ChatGPT:人工智能技术在自然语言处理的比较与探讨
研博论文

文心一言和ChatGPT:人工智能技术在自然语言处理的比较与探讨

人工智能技术在近年来的快速发展和应用中,聚焦于深度学习和机器学习两种主要的技术方向,文心一言和ChatGPT则是这两种技术在自然语言处理领域中的两个重要代表。虽然两种技术都可以为自然语言处理领域的应用提供帮助,但其技术原理、应用场景和发展潜力存在差异。下面将分别从技术原理、应用场景和发展潜力三个方面进行比较和探讨。 一、技术原理的比较 文心一言的核心技术是基于深度学习的生成式模型。它使用了长短期记忆网络(LSTM)等技术,在大规模的语料库中训练模型,以生成符合语法、逻辑和语言文化要求的文本。相比之下,ChatGPT则是基于机器学习的预测式模型,使用了Transformer等技术,在大规模语料库上训练模型,以预测和生成下一个单词。由于文心一言的生成式模型具有更强的生成能力,因此在文本生成领域上表现出更高的性能和效果;而ChatGPT的预测式模型则具有更强的语义理解和推理能力,在文本理解和问答系统方面具有更大的应用潜力。 二、应用场景的比较 文心一言主要应用于文本创作领域,如广告文案、新闻摘要、短篇小说等。它可以根据用户输入的关键词或短语,快速生成符合语法和逻辑要求的文本,从而提高文本创作的效率和质量。而ChatGPT则可以用于自然语言理解、问答系统、对话机器人等领域。由于ChatGPT具有更强的语义理解和推理能力,因此在自然语言理解和问答系统等领域表现更为出色。 三、发展潜力的比较 在人工智能技术不断发展的过程中,文心一言和ChatGPT都具有巨大的发展潜力。在技术原理方面,深度学习和机器学习等技术都在不断发展和改进,可以预见,文心一言和ChatGPT都将在技术方面得到不断的提升和完善。在应用场景方面,随着自然语言处理领域的不断扩展和深化,文心一言和ChatGPT在文本生成、自然语言理解、对话机器人等领域都将有更广泛的应用。在发展潜力方面,虽然两种技术都具有非常大的发展潜力,但由于机器学习技术的预测式模型具有更强的泛化能力和推理能力,因此ChatGPT在未来的应用和发展中具有更为广阔的空间和潜力。 四、结论 综上所述,文心一言和ChatGPT都是人工智能技术在自然语言处理领域中的重要代表,两种技术都具有自己的优点和不足,具有广泛的应用场景和发展前景。虽然两种技术在技术原理和应用场景上存在差异,但在人工智能技术快速发展的过程中,两种技术也有可能进行融合和互补。我们期待,未来文心一言和ChatGPT将继续在自然语言处理领域中发挥重要的作用,并为人们带来更为智能化和便捷的语言交互体验。