AI带来的挑战与机遇:智能助手在学术诚信与创新中的role
研博论文

AI带来的挑战与机遇:智能助手在学术诚信与创新中的role

近期,人工智能助手ChatGPT风靡全球,引发网友训练其代写论文、回答问题等基本功能的热潮。然而,其可能引发学生作弊担忧,引发学术界对学生在论文中使用AI的关注。大学鼓励教育工作者评估带有“人工智能辅助痕迹”的论文,但不应过度依赖在线工具,否则可能影响学术诚信及未来发展。
伊利亚·苏茨克维:OpenAIboardmember的“隐身”之旅
研博论文

伊利亚·苏茨克维:OpenAIboardmember的“隐身”之旅

该文章主要介绍了伊利亚·苏茨克维在OpenAI公司内部的山姆被推翻事件中的角色和看法。在事件发生后,伊利亚被认为是更有可能接任山姆的位置的人,但他对此并不感兴趣,并表示这只是董事会履行职责。此外,他还谈到了自己对通用人工智能的看法,认为人们需要意识到其潜在的力量,以及ChatGPT等技术的真正影响。
ChatGPT“横扫”校园缘何遭封杀新华网2023-02-17 07:22新华网2023-02-17 07:22
研博论文

ChatGPT“横扫”校园缘何遭封杀新华网2023-02-17 07:22新华网2023-02-17 07:22

ChatGPT进入校园的速度,超乎许多人的想象。 “满绩点!全班第一!开心!” 2023年1月,正在上大二的李凌,凭借一篇1200多字的课程论文,成功在《新媒体与广告》这门课取得90多分的好成绩。在他们学校,这相当于绩点满分。 不过,这篇论文的好成绩,要归功于ChatGPT。 ChatGPT是一款人工智能聊天机器人,在2022年11月一经上线便引发关注。不同于以往广受诟病的“人工智障”,它能够深度理解上下文的关联,完成写文章、邮件甚至是敲代码的复杂任务。于是,便有了李凌的高分论文。但这样的成绩不算作弊得来的吗?依靠ChatGPT创作对孩子们的培养有好处吗? 不止一个人提出这样的问题。也因此,ChatGPT正在遭遇一个尴尬的局面,一边因其强大的学习辅助功能而“横扫”各大校园,成为学生眼中的“作业神器”,一边却被多所高校、期刊列入黑名单,遭受封杀。 全班第一的论文,出自ChatGPT “全靠ChatGPT,两小时的考试,我一小时就交了卷。” 2022年年底,李凌参加了《新媒体与广告》这门课的网上开卷考试。考试要求在两个小时之内完成一道论述题,问题与互联网广告的新现象有关,字数要求在1200字以上。其间可以查阅各种资料。 “许多同学都进行了提前准备。”李凌告诉中青报·中青网记者,很多人除了整理课件,还提前下载了几十篇广告专业相关的论文,以备参考。 他却另辟蹊径。两个小时的考试,当别人还在翻阅各种资料奋笔疾书,他只是和ChatGPT对话几个回合,输入不到20字的问题,就获得了一篇长达6000多字的文章——从定义、源流、特点、未来发展等角度分析了当下互联网广告营销的特点。随后,他将这些素材精简到了1200字左右,“提前一个小时交卷走人”。 1月,成绩出来了,李凌位列全班第一。 ChatGPT创造的“校园奇迹”远不止于此。在ChatGPT的“原产地”美国,2023年1月,一项对1000名18岁以上学生的调查显示,超过89%的受访学生会使用ChatGPT来完成家庭作业。同月,密歇根大学的哲学教授安东尼·奥曼发现全班第一的论文是用ChatGPT写的。 根据中青报·中青网记者不完全统计,截至2023年1月底,国内各大社交平台上,有关使用ChatGPT完成作业的讨论已经超过10万条。 有人认为,ChatGPT能够帮助学生快速梳理问题的解题思路,还能够借助它检查作业错误,是一个相当强大的“辅导老师”。 有人则认为人工智能工具会助长学生的惰性,“什么作业都能够依靠人工智能完成,那学生就不用学习啦!”这并不利于培养学生独立思考的能力,更无利于他们发展创造性思维。 目前,全球多国大学、科研机构发布明确的人工智能禁令,禁止使用ChatGPT和其他所有基于人工智能的工具完成学习与考试任务;多家期刊、出版机构也禁止将ChatGPT列为论文合著者。 不过关于ChatGPT对学生影响的讨论,并未随着一张张禁令而停歇。网络上,公众对于ChatGPT的争论,仍在发酵。 人工智能是“辅助”,还是“代替”学习 有人认为,虽然ChatGPT可能会提供一个快速简洁的答案,但这并不能培养学生的批判性思维和解决问题的能力,这些能力对未来发展至关重要。 也有人认为,人工智能只是“辅助”学生学习,无法让他们获得自主学习能力。 “现在对人工智能的使用,并没有‘傻瓜’到学生输入一个问题、就能立刻写出一篇完美论文的程度。”上海大学新闻传播学院讲师、硕士生导师徐偲骕对于学生使用ChatGPT等人工智能撰写论文持开放态度,“如果学生真的用人工智能生成了论文并且达到了我的要求,那说明他也是下了一番功夫的。” 正在国内某高校就读的彭羊也认为,一部分人过度神化了人工智能,“ChatGPT写出来的东西,其实并不能直接用。” 2023年2月,彭羊在《量化投资》这门课上被要求写一篇不限字数的课程论文。这门课程不仅涉及金融知识,也涉及计算机编程知识。他想到了用ChatGPT来辅助论文写作,“我问了它一些编程问题,让它给我的代码纠错、教我收集数据以及用Python(一种计算机编程语言——记者注)整理文件。” “挺锻炼提问能力的!”彭羊表示,ChatGPT要通过用户与机器之间的问答才能得到答案,“要问很具体的问题,如果自己的问题模棱两可,它的回答可能也会有很大偏差,甚至有的时候答案会出错。” 彭羊认为,这种一问一答的过程,像人类在“驯化”人工智能,“问ChatGPT要有技巧,范围要由大到小,比如先提出诸如‘是什么’的定义类问题,如果希望得到更精准的回答,则可以预设情景,比如‘假如你是一名……你要……为了达成目标,你该怎样……’只有不断变换问问题的方式,才能获得最终想要的答案。” “向机器人提问,也是一种学习的方式。”彭羊告诉记者,他使用ChatGPT主要还是为了优化自己的代码、润色论文内容,“而搜索到的内容,只有自行消化,才能达到学习目的。” 北京语言大学外国语言学及应用语言学硕士研究生罗玉婷曾与多家互联网公司AI实验室合作,她认为,人工智能提供给大家的只是一些信息,真正体现学术思想和原创性的部分在于作者自身对问题的洞察和思考,“人工智能没有这种体验,它只是集合了现在已有的信息,所写出来的论文就不会有新颖性和独创性。” 正在准备雅思考试的大三学生罗瑶,也认为ChatGPT更像个“助理”,她说,“ChatGPT的语言处理逻辑很严谨,特别适合用来准备语言类考试。” 雅思是考察英语听说读写四方面的英语考试,满分为9分。罗瑶的目标是考上雅思7分,但口语和写作成了她面前的一道拦路虎。上大课、请私教她都试过,但这两项还是保持在5.5分。 如今,ChatGPT帮了她大忙。 “人工智能了解雅思的评分标准,因此只需要输入题干和自己的答案,它就会给出分数预测。”罗瑶说,ChatGPT还能帮她检查文本里的语法错误,并给出更地道的用法建议,“相当于请了一个24小时在线私教。” 如果学不会提问,恐怕连AI都用不好 “Ask me anything!(有问题尽管问!)”是ChatGPT与用户聊天的开场白。 一些教育工作者、科研人员认为,一些学生恰恰不知道“问什么”,尚未建立起真正的“问题意识”,如果“问什么”都不知道,那么连AI这个工具都没法很好地使用。 2月6日,徐偲骕负责的课程《新媒体研究》即将结课。他依然选择课程论文作为结课方式,论文主题需要与中国社会的数字化转型有关。他认为,有的学生连一个有价值的问题都提不出来,更别说研究问题了。 上海大学文学院创意写作学科教授、博士生导师谭旭东多年来致力于培养学生的写作能力,经常为学生布置诸如创作散文、童话、书评等类型的课程作业。他并不担心学生利用人工智能进行写作,“这类作业很容易调动学生的生活经验和知识资源,学生自己有话可说,可能就不会抄袭或者去利用人工智能写作。” “机器是‘生产’,而人是‘创造’。”谭旭东指出,老师们凭借多年的写作经验和研究积累,能够区分出真人和人工智能写作的区别。即便是相同的故事,语言能力强的人也能把一个老旧的故事讲得优美、有趣,甚至令人惊奇,他说,真正的写作,用词、造句和行文风格都是个性化的。 谭旭东并不担心人工智能会取代学生和教育的主体地位。他说,“人文社会科学和自然科学的疆域很广阔,还有很多未开垦的处女地,需要我们去‘第一个吃螃蟹’。” “ChatGPT是一种全新的知识工具,从这个意义上来说,它和我们几千年来依靠的书本、图书馆并没有两样,基于这样强大的知识工具来学习,孩子们应该学得更好。”2月9日,上海市教委副主任倪闽景撰文指出,面对ChatGPT,传统教育的方式方法需要作出重大调整。 他就此提出三点建议:教育的首要目标是培养能独立思考和有正确价值判断能力的人,而不再是获取特定的知识;要用ChatGPT等学习工具来协同改进教育教学方式;要更加关注学习的品质。 徐偲骕也更加注意在作业的布置中强调“问题意识”,他告诉同学们:“支持新奇选题,所研究的需要是真问题,而非‘杜撰’问题。” 一个好问题,既是年轻用户与ChatGPT对话的起点,也是校园学子做好学术研究的开端。(刘胤衡) 来源:中国青年报...
ChatGPT4时代的职场冲击:AI对普通人的影响与适应
研博论文

ChatGPT4时代的职场冲击:AI对普通人的影响与适应

这篇文章主要探讨了 AI 工具如 Chat-GPT 4 对普通职场人的影响。随着科技的发展,更多的行业开始广泛使用 AI 工具,提高了工作效率。Chat-GPT 4 的升级带来了更高效的体验,可以更快地完成任务,并提供了更多功能。但同时,AI 也对职场人的工作产生了一些影响,例如对数据安全的挑战以及对职场人要求的改变。总体而言,AI 工具的出现和发展正在改变着我们的工作和生活方式。
ChatGPT全工具集成:AI技术的新篇章
研博论文

ChatGPT全工具集成:AI技术的新篇章

这篇文章主要介绍了ChatGPT全工具集成版本的推出,引起了人工智能领域的广泛关注。该版本不仅展现了ChatGPT在自然语言处理领域的杰出能力,而且标志着AI技术的一次重要进步。它具有技术创新与应用广泛性,商业应用与创新方面,个性化定制功能,商业运营自动化及效率提升,以及提升客户互动与支持等优势。
ChatGPT“火出圈”我们该“急眼”吗?中国经济网2023-02-20 09:30中国经济网2023-02-20 09:30
研博论文

ChatGPT“火出圈”我们该“急眼”吗?中国经济网2023-02-20 09:30中国经济网2023-02-20 09:30

能写论文、做翻译、编程序、出方案甚至代写情书、辞职信……最近,ChatGPT迅速火爆全网。它是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,能通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务。去年11月底诞生,在推出约2个月后,其活跃用户就突破1亿,成为历史上增长最快的消费者应用程序,与此相关的多个话题持续登陆各种热搜头条,一时间“10个公众号,8个在谈ChatGPT”。 ChatGPT为何能如此“火出圈”?它将给人类社会生活带来哪些影响?需要因此担忧随之而来的人工智能迅猛发展带来的挑战吗?针对诸多疑问,记者连日来走访了多位专家。 “火出圈” 是因为更“聪明”? “ChatGPT‘火出圈’是因为它能使人们直观感受到人工智能、自然语言处理等技术的进步。它以对话的方式进行交互,在文字和逻辑理解方面的性能提升显著,对于问题的理解和给出的解答是目前模型中表现最好的。”南开大学软件学院特聘研究员孙羽菲说。 作为人工智能技术研究工作者,南开大学人工智能学院副院长许静教授对ChatGPT的出现表示“非常兴奋”并“第一时间试用”:“从我的体验来说,回答问题的速度有些延迟,但回答的内容大多是准确的。” 许静说,最近几年,人工智能受到广泛关注,特别是谷歌的阿尔法围棋(AlphaGo)作为第一个战胜围棋世界冠军的人工智能机器人,引起大家兴趣,都很关注“机器人能不能超过人脑?”有说法称机器在处理规则方面能够超过人脑,却在处理大量知识方面很难超过人脑,但ChatGPT正是从浩瀚的知识中处理问题、解答问题,而且有些回答使我们感到意外,所以一经推出迅速火遍全球。 天津大学自然语言处理实验室负责人熊德意教授表示,ChatGPT“火出圈”的原因主要有两个:其一,它是一种普惠型的人工智能(AI)技术,以自然语言会话的形式与用户交互,普通大众都可以使用它,也就是说,ChatGPT天生具有广泛的用户基础。其二,基于大模型、AI对齐等技术,ChatGPT实现了语言智能技术的突破,在与用户的会话中,它通常能准确捕获用户的真实意图,完成包括文本生成、开放域问答、头脑风暴建议(如给出某个策划方案的提纲)、聊天、编写和修改代码、改写文本、生成摘要、翻译等用户通过人类自然语言方式交给它的任务,与以往对话式AI产品相比,ChatGPT表现令人惊艳,刷新了普通大众对AI会话水平的认识。 “其实ChatGPT模型并不是最近突然冒出来的,而是已有多年积淀。”南开大学计算机学院副院长、网络空间安全学院副院长刘晓光教授告诉记者,OpenAI从2015年开始陆续推出过3个模型,尤其GPT-3当时已在学界和业界产生很大影响,且是开源代码,带动了世界互联网企业和IT企业纷纷推出自己的大模型项目,但当时更偏向研究和技术能力展示。这次ChatGPT“火出圈”的原因,一是它作为直接面向公众应用的聊天软件,能逼真模仿人类对话,并对用户的提示作出详细的回应;二是其发布时正值国外学校考试季,一些学生直接用其生成由计算机抽取含义后重新组织的文字写作业和论文,十分“好用”,以致欧美许多学校明令禁止在课上使用该软件,引发火爆话题;三是它在业界产生了较大影响力,多名行业巨头评价其“好到吓人”“ChatGPT以及AI领域的进展令人激动”等,也助其引发极大关注。 “当然,ChatGPT火的根本原因是目前大家都比较认可它能较好完成相应功能,特别是与聊天、生成文本相关的,比如写个即时报告等,这方面能力已基本达到甚至有时还优于一个普通高校大学生。”刘晓光说,相对于人,计算机非常擅长在固定场景下干固定的事,但对根据具体场景自行组织文本回答则比较困难,学习能力更强、模型数据够大令ChatGPT远胜于具有同类核心技术的Siri、小度等智能助手。 不过,接受采访者也表示,ChatGPT远没到“封神”的地步。 “以前的模型是接着提示文本生成,比如提示‘今天天气’,它生成‘不错’。现在ChatGPT能做对话性的任务,代表它能执行命令了,这是一大改进。目前它的文字提取、润色做得十分优异,与人工差不多,但常识和计算方面是它的缺点,比如单位转化、时区转换及稍微复杂的数学问题就做不好,它的学习能力受限于材料的统计和汇总。”南开大学软件学院在读博士研究生钟震宇说,他试用时让该软件查去成都的旅游计划,“也许这个模型学习的文本中‘旅游’与‘北京’联系紧密,给我制定的成都旅游计划中出现了颐和园等北京景点。” 刘晓光试用时也发现,ChatGPT遇到偏专业性或冷门的问题会“一本正经地胡说八道”:“想让人工智能足够‘聪明’,需要有足够多的数据来训练它。训练数据中除了互联网上的静态数据,更重要的是用户的反馈数据。用户越多,它会改进越快、迭代式创新效果越好。” 火爆背后折射出什么? “ChatGPT不仅仅是一个聊天工具,它代表着人工智能的一次革新,也预示着人工智能将影响甚至改变我们未来的生活。”许静表示,人工智能技术经过几十年的发展,在特定领域已超过了人类。在通用人工智能方面,ChatGPT是一次全新的革命,会对各个行业各个产业的发展带来变革。我们人类周围,除了自然环境,还有我们发明的各种机器,这些机器都是为了延伸人类的某些技能。人工智能技术解决了人与机器的关系,让机器听得懂(语音)、看得懂(视觉)甚至自动驾驶等。之前的技术都是简单的交互,即机器服从简单命令,而ChatGPT是第一次机器与人的交互表现出了智能,这个模型可以做到知识的融合乃至自我学习,“这时候,我们该向机器学习了,要在知识之上提出更高级的需求,在机器迭代过程中,人类也逐渐进化,我认为这是我们对待人工智能技术进步的态度。” “ChatGPT火爆背后,首先是预示着一种深层次的信息革命。”在熊德意看来,人类发明计算机和互联网之后,获取、存储和使用信息的方式出现了翻天覆地的变化,但最近几十年基本上没有大的变动,主要以搜索引擎为主,呈现的信息通常需要用户进行二次处理或再加工才能满足要求,而ChatGPT呈现的信息通常可以直接满足用户需求,或通过交互方式逐步达到用户要求,“虽然目前还存在信息可靠性问题,但相信未来这些问题会不断得到改善。” 其次是人和机器关系会出现重大转变。以ChatGPT为代表的一类技术在精准捕获用户的真实意图方面迈出了一大步,一旦机器可以“理解”人类意图并完成相应任务,人和机器的交互就不再需要翻译成机器语言,而是直接使用人类语言作为交互载体。 再次是机器生成内容的能力大大增强。一些文字内容类工作,可以让机器辅助人类,使人的工作效率得到极大提升。“比如一些‘枯燥乏味’的文字工作可交给机器完成,人专注于更高层次的内容思想编辑工作,或通过人机交互方式协同生成更好的内容。”熊德意说。 产生“失业焦虑”,有必要吗? 对于ChatGPT的出现,有人感慨人工智能技术发展的速度,希望早日为我们的生活带来质的飞跃;也有人担心人工智能技术的发展太快了,会有负面影响,甚至会给我们带来灾难。 对于“失业焦虑”,许静表示,“机器人能否替代人类”,这是自人工智能技术开始研究之初就受到广泛关注的问题。ChatGPT出现后,在文字、绘画甚至写代码等方面都能展现出超强的能力,令一部分人感到恐慌,担心工作会被机器人替代。机器可以7×24小时工作,后台有庞大数据库的支持,可以解答我们学习生活中诸多问题,的确会有一些职业被取代。其实人工智能技术已经在很多行业替代了人类,国内外的无人工厂比比皆是,“我认为,人工智能的发展是为了解放人类、造福人类而决不是毁灭人类,在某些领域替代人类是不可挡的大趋势。一些职业被取代后,人类一方面可以进一步发明创造,另一方面还会有新的职业产生。人类的进步,就是要不断发明创造新的技术、新的机器来替代原有的机器、淘汰落后的行业,就像汽车取代马车,还有更先进的飞机可以带我们在天空翱翔,如果回到几百年前,这些都是不可想象的,所以没有必要对此感到恐慌。” 也有人在考虑选择一个将来不会被人工智能取代的职业。“我认为,在不远的将来,人工智能技术会渗透到我们生活的方方面面,就像现在的互联网,很多行业都离不开。与其选择不被人工智能替代的行业,不如拥抱人工智能,在自己从事的行业中,主动加入人工智能技术。可以预见,使用人工智能技术的工种会淘汰不使用人工智能技术的,各行各业都是如此。”许静说,相对因ChatGPT的出现导致“失业焦虑”的人,有些人因看到商机而十分兴奋,“就像有了互联网平台后,就可以开发购物、社交、娱乐,有了GPS后,就可以有导航、外卖点餐等,在ChatGPT走红后,一些中国科技企业也纷纷对外宣布自己已具备开发类似ChatGPT产品的能力,并着手进行产品的开发与上线准备,积极布局新业务,推动在这个模型之上的应用。” 熊德意说,基于上述趋势,未来人类获取信息的方式、与机器交互的方式都会出现变化,与人类意图、价值观、伦理准则高度对齐的信息智能体会帮助我们高效获取信息、生成信息和发布信息。以ChatGPT为代表的大模型及其后续更新技术会逐步充当各种机器、设备、机器人的“大脑”,人机之间的交互会更加以人为中心,而不是以机器为中心。 相应的技术会对多个行业、领域产生影响,如教育(规范使用ChatGPT等类型技术,避免学生使用它们做作业,发挥新技术对教育的积极辅助作用,而不是成为作弊利器)、医疗(将大模型技术应用于医疗问答、药物研发、DNA/蛋白质建模等)等,搜索引擎、办公软件等传统的计算机软件,也会受到影响和冲击。 “ChatGPT出来后,可能会重塑整个互联网行业格局生态。”刘晓光说,ChatGPT目前所“掌握”的知识、能给出的答案都在它学过的范围里,即现有的互联网上产生的知识,它会学习得很好,但不会创造新知识,“所以最容易被AI替代的是重复性劳动较多、不需要太多创造力的工作。” “技术突破对人类是好事。ChatGPT的确会对某些职业产生冲击,但目前它还远远达不到取代人类,作为工具的意义更大。”南开大学软件学院院长张玉志教授表示,就像会背诗和会写诗是两码事,ChatGPT对判断事物是否正确的能力尚弱,也无法完成创造性的工作,而人是能具有鉴别能力和创造力的,“ChatGPT对搜索引擎、人工客服的冲击可能更大些,应该会逐渐对其产生影响,但颠覆性的结果并非一朝一夕能完成。” ChatGPT 存在的短板 ●生成的内容仍然存在未对齐行为,未来在这方面需要进一步研究和突破。 ●以ChatGPT为代表的大模型技术通常被具有丰富算力和数据资源的企业垄断,不利于大模型技术研究和突破。 ●目前大模型的算力消耗非常庞大,模型轻量化技术需要进一步探索。 ●要提升模型的可解释性,要研制相关技术使得ChatGPT为代表的大模型技术可以自我追溯信息源头,增强可信性。 ●ChatGPT背后还存在很多科学问题未有明确答案。 距离大规模商业化应用还远吗? 在许静看来,ChatGPT在某些行业,比如客服,现在就已达到商业应用的需求了,主要需解决观念问题。在某些特殊领域,ChatGPT技术再加入领域知识、领域数据,使模型自我进化之后,就可以使用了。 熊德意则认为,ChatGPT技术虽然取得了重要进展,但仍然面临诸多挑战。第一,虽然采用了人类反馈强化学习(RLHF)AI对齐技术,但是生成的内容仍然存在未对齐行为,例如不符合常识,存在偏见、歧视等内容,信息真实性有时存疑(即“一本正经地胡说八道”),未来在AI对齐技术上需要进一步研究和突破;第二,以ChatGPT为代表的大模型技术通常被具有丰富算力和数据资源的企业垄断,且不开源,不利于大模型技术研究和突破;第三,目前大模型的算力消耗非常庞大,要实现大规模真实场景应用,模型轻量化技术需要进一步探索;第四,要提升模型的可解释性,要研制相关技术使得ChatGPT为代表的大模型技术可以自我追溯信息源头,增强可信性;第五,ChatGPT背后还存在很多科学问题未有明确答案,比如:大模型突现能力是如何形成的?语境学习机制是什么?AI对齐为什么使大模型具有指令泛化能力?这些科学问题的探索将会推动未来技术更好地发展。 “ChatGPT应用主要得看落地在哪些方面。”张玉志说,像搜索引擎,应该会很快投入应用,但像智能客服、撰写法律文书等在具体场景下一些背景知识的应用,路还比较长,“上TB级的数据,很考验企业能提供给模型的算力、数据量是否充足。人工智能公司也会考虑人工和模型的投入哪个成本大。这是个群策群力的事。” “中国版ChatGPT”有望很快出现? 随着ChatGPT引发的热议持续升温,谁将最先打造出“中国版ChatGPT”也令人关注。 “从以往的发展来看,在信息领域,我们的科技人员在利用已有平台发展新的场景和应用领域上有着独特的优势和快速的系统构建,但是在原始创新上还稍显不足。”许静介绍,目前国内有不少公司正在布局这一领域,百度已宣布将于3月正式推出旗下类ChatGPT应用“文心一言”。 熊德意表示,2020年OpenAI发布1750亿参数的GPT-3之后,国内企业和科研机构,同Google、微软、DeepMind、Meta AI等一样,于2021年至2022年间,研制了类似于GPT-3架构的千亿级大模型,因此,在底层技术上我们不存在任何问题。但是要实现“中国版ChatGPT”,需要在多个方面加强研究、压实工作。首先,在数据上,我们要使用与GPT-3相当的数据量和计算量训练模型,目前中文缺乏像英文那样的多个开源大规模数据集,各家企业使用的中文数据也很少开源,很多时候数据也未像OpenAI那样进行精选处理以提升质量;其次,国内在AI对齐研究上需要加强,尤其是在已经预训练的大模型上;再次,要充分调动以大模型为代表的新型AI技术的研发活力,鼓励已经研制的大模型接受广大用户检测,同时也要积极培育专攻某一类核心技术(如大模型AI对齐技术)的初创企业,不求短期市场回报。 “国内主要互联网公司其实都已有自己的大模型,他们要推出类似产品,技术上难度并不大,最重要的是跟自己原有的优势产品结合在一起。”刘晓光说,他了解到,目前百度“文心一言”一些相关功能已陆续在百度搜索内上线或内测,包括多答案回复、智能生成等,同时小度、爱奇艺、触宝等公司以及20多家媒体等平台已官宣接入“文心一言”,成为生态合作伙伴。 “相信国内在这一领域会越做越好。预计一到两年,我们也有可能拥有ChatGPT惊艳表现的国产化模型。”张玉志说。 还有哪些方面的风险 不容忽视...
ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了量子位2023-02-12 13:00北京量子位2023-02-12 13:00北京
研博论文

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了量子位2023-02-12 13:00北京量子位2023-02-12 13:00北京

丰色 萧箫 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT原来是拥有心智的?! “原本认为是人类独有的心智理论(Theory of Mind,ToM),已经出现在ChatGPT背后的AI模型上。” 这是来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动: 这一天终于猝不及防地来了。 所谓心智理论,就是理解他人或自己心理状态的能力,包括同理心、情绪、意图等。 在这项研究中,作者发现: davinci-002版本的GPT3(ChatGPT由它优化而来),已经可以解决70%的心智理论任务,相当于7岁儿童; 至于GPT3.5(davinci-003),也就是ChatGPT的同源模型,更是解决了93%的任务,心智相当于9岁儿童! 然而,在2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。 也就是说,它们的心智确实是“进化”而来的。 △ 论文在推特上爆火 对此,有网友激动表示: GPT的迭代肯定快得很,说不定哪天就直接成年了。(手动狗头) 所以,这个神奇的结论是如何得出的? 为什么认为GPT-3.5具备心智? 这篇论文名为《心智理论可能在大语言模型中自发出现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)。 作者依据心智理论相关研究,给GPT3.5在内的9个GPT模型做了两个经典测试,并将它们的能力进行了对比。 这两大任务是判断人类是否具备心智理论的通用测试,例如有研究表明,患有自闭症的儿童通常难以通过这类测试。 第一个测试名为Smarties Task(又名Unexpected contents,意外内容测试),顾名思义,测试AI对意料之外事情的判断力。 以“你打开一个巧克力包装袋,发现里面装满了爆米花”为例。 作者给GPT-3.5输入了一系列提示语句,观察它预测“袋子里有什么?”和“她发现袋子时很高兴。所以她喜欢吃什么?”两个问题的答案。 正常来说,人们会默认巧克力袋子里是巧克力,因此会对巧克力袋子里装着爆米花感到惊讶,产生失落或惊喜的情绪。其中失落说明不喜欢吃爆米花,惊喜说明喜欢吃爆米花,但都是针对“爆米花”而言。 测试表明,GPT-3.5毫不犹豫地认为“袋子里装着爆米花”。 至于在“她喜欢吃什么”问题上,GPT-3.5展现出了很强的同理心,尤其是听到“她看不见包装袋里的东西”时一度认为她爱吃巧克力,直到文章明确表示“她发现里面装满了爆米花”才正确回答出答案。...