新闻分析:ChatGPT,变革与风险新华社2023-02-13 08:30
研博论文

新闻分析:ChatGPT,变革与风险新华社2023-02-13 08:30

新华社北京2月13日电新闻分析:ChatGPT,变革与风险 新华社记者彭茜 黄堃 美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后,1月已达到1亿月活跃用户,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将为信息产业带来巨大变革,但由此带来的学术造假、技术滥用、舆论安全等风险亦不容忽视。 (小标题)新一代操作系统平台的雏形 多语言撰写充满想象力的诗歌,编写可运行的程序,快速生成论文摘要,自动制作数据表格,纠正文章中的语法和表达错误,把一周大事写成新闻综述……ChatGPT不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。 ChatGPT还轻松通过一些对人类难度较高的专业级测试:它新近通过了谷歌编码L3级(入门级)工程师测试;分别以B和C+的成绩通过了美国宾夕法尼亚大学沃顿商学院MBA的期末考试和明尼苏达大学四门课程的研究生考试;通过了美国执业医师资格考试……业界形容它的诞生是人工智能时代的“iPhone时刻”,意味着人工智能迎来革命性转折点。 “ChatGPT的成功不应仅仅被看作新一代聊天机器人的突破,而应该重视其对人工智能乃至整个信息产业带来的革命。”北京智源人工智能研究院院长黄铁军接受记者专访时说,人工智能领域的过去十年是深度学习的十年,但产业总体上并没有出现移动互联网和云计算级别的爆发,“ChatGPT的出现,具有划时代意义,大模型+ChatGPT已形成新一代操作系统平台的雏形”。 黄铁军说,ChatGPT在技术路径上采用了“大数据+大算力+强算法=大模型”路线,又在“基础大模型+指令微调”方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。ChatGPT应用了“基于人类反馈的强化学习”训练方式,用人类偏好作为奖励信号训练模型,促使模型越来越符合人类的认知理解模式。 “这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。”中国科学技术大学机器人实验室主任陈小平对记者说。 (小标题)引发新一轮人工智能科技竞赛 ChatGPT的问世正在人工智能领域引发新一轮科技竞赛。北京时间2月8日凌晨,微软推出由ChatGPT支持的最新版本必应搜索引擎和Edge浏览器,宣布要“重塑搜索”。微软旗下Office、Azure云服务等所有产品都将全线整合ChatGPT。 北京时间2月7日凌晨,谷歌也发布了基于谷歌LaMDA大模型的下一代对话AI系统Bard。同一天,百度官宣正在研发的大模型类项目“文心一言”,计划在3月完成内测,随后对公众开放。阿里巴巴、京东等中国企业也表示正在或计划研发类似产品。 人工智能大模型领域的全球竞争已趋白热化。黄铁军认为,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。 值得注意的是,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成虚假信息、版权争议等人工智能通用风险。多家全球知名学术期刊为此更新编辑准则,包括任何大型语言模型工具都不会被接受为研究论文署名作者等。 “学术论文的署名作者须满足至少两个条件,其一是在论文工作中做出‘实质性贡献’,其二是能承担相关的责任。目前这两个条件ChatGPT(以及其他AI系统)都不满足。”陈小平说。 ChatGPT也有应用在舆论信息战方面的潜力。加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠疫情的文章,然后要求其生成关于这场危机的“反事实新闻”。连OpenAI也警告使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。 “针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。(完) 举报/反馈
双生花:黄楠、陈彩娴的文学之旅
研博论文

双生花:黄楠、陈彩娴的文学之旅

这篇文章由黄楠和陈彩娴共同撰写,主要探讨了区块链技术在金融行业中的应用现状及未来发展趋势。作者分析了区块链技术在支付、清算、交易和风控等领域的实际应用案例,并强调了区块链技术在提高金融效率、降低成本和提升安全性方面的重要作用。同时,作者也对区块链技术的未来发展提出了自己的见解,认为区块链技术将在未来金融领域中发挥更加重要的作用。
谷歌大模型团队并入DeepMind!誓要赶上ChatGPT进度
研博论文

谷歌大模型团队并入DeepMind!誓要赶上ChatGPT进度

明敏 发自 凹非寺量子位 | 公众号 QbitAI 为应对ChatGPT,谷歌在大模型方面的动作还在继续。 最新消息,其旗下专注语言大模型领域的“蓝移团队”(Blueshift Team)宣布,正式加入DeepMind,旨在共同提升LLM能力! DeepMind科学家们在推特下面“列队欢迎”,好不热闹~ 蓝移团队隶属于谷歌研究,和谷歌大脑实验室同等级。 之前谷歌耗时2年发布的大模型新基准BIG-Bench,就有该团队的重要贡献。 还有谷歌5400亿大模型PaLM,背后也有蓝移团队成员提供建议。 综合此前消息,DeepMind表示要在今年发布聊天机器人麻雀(Sparrow)内测版本。 如今又有擅长大模型研究的团队加入,强强联手,或许会加快谷歌应对ChatGPT的脚步? 这下有好戏看了。 蓝移团队是谁? 据官网介绍,蓝移团队主要关注的研究点是如何理解和改进大语言模型的能力。 他们专注于了解Transformer的局限性,并挑战将其能力扩展到解决数学、科学、编程、算法和规划等领域。 具体可分为如下几方面分支。 团队的代表性工作有数学做题模型Minerva。 它曾参加数学竞赛考试MATH,得分超过计算机博士水平。 综合了数理化生、电子工程和计算机科学的综合考试MMLU-STEM,它的分数比以往AI高了20分左右。 并且它的做题方法也是理科式的,基于谷歌5400亿参数大模型PaLM,Minerva狂读论文和LaTeX公式后,可以按照理解自然语言的方式理解数学符号。 作者透露,让该模型参加波兰的数学高考,成绩都超过了全国平均分数。 还有蓝移团队曾和MIT的科学家一起,通过训练大模型学会程序员debug时“打断点”的方式,就能让模型读代码的能力大幅提升。 还有谷歌耗时2年发布的大模型新基准BIG-Bench,蓝移团队全部成员均参与了这项工作。 BIG-bench由204个任务组成,内容涵盖语言学、儿童发展、数学、常识推理、生物学、物理学、社会偏见、软件开发等方面的问题。 以及如上提到的谷歌大模型PaLM,蓝移团队成员Ethan S Dyer也贡献了建议。 官网显示,蓝移团队目前有4位主要成员。 Behnam Neyshabur现在是DeepMind的高级研究员。他在丰田工业大学(芝加哥)攻读了计算机博士学位,后来在纽约大学进行博士后工作,同时是普林斯顿大学高等研究理论机器学习项目组的成员。 研究领域是大语言模型的推理和算法能力、深度学习和泛化等。 Vinay Ramasesh在加州大学伯克利分校获得物理学博士学位,曾致力于研究基于超导量子比特的量子处理器,硕士毕业于麻省理工学院。 最近他主要在研究语言模型,职位是研究科学家。 Ethan Dyer博士毕业于麻省理工学院,2018年加入谷歌工作至今。 Anders Johan Andreassen同样是物理专业出身,博士毕业于哈佛大学。在哈佛大学、加州大学伯克利分校都做过博士后,2019年起加入谷歌。 谷歌还有多少后手? 这次蓝移团队的调动,也不免让外界猜测是否是谷歌为应对ChatGPT的最新举措。 ChatGPT引爆大模型趋势后,谷歌几乎是最先打响“阻击战”的大厂。...
ChatGPT:透明性与影响探析
研博论文综述

ChatGPT:透明性与影响探析

本文概述了ChatGPT的重要性及其在自然语言处理领域的革命性影响,回顾了现有研究对ChatGPT内部工作原理、应用和影响的探讨,并提出了一种全面研究ChatGPT的方法。然而,对于ChatGPT的具体性能和应用范围仍需进一步研究和探讨。