AI革命:从ChatGPT到金融市场的人生财富密码
研博论文

AI革命:从ChatGPT到金融市场的人生财富密码

文章讨论了2022年元宇宙概念的火热程度和2023年人工智能(AI)成为市场焦点的现象。ChatGPT作为AI的代表,迅速吸引了大量用户并带动了相关行业的发展,如云计算、大数据、互联网、软件服务等。然而,AI技术也可能引发失业问题,对白领阶层造成较大威胁。文章最后提出了对华尔街金融收割术的思考,认为其是影响股市波动的重要因素,需要警惕其风险。
新闻分析:ChatGPT,变革与风险新华社2023-02-13 08:30
研博论文

新闻分析:ChatGPT,变革与风险新华社2023-02-13 08:30

新华社北京2月13日电新闻分析:ChatGPT,变革与风险 新华社记者彭茜 黄堃 美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后,1月已达到1亿月活跃用户,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将为信息产业带来巨大变革,但由此带来的学术造假、技术滥用、舆论安全等风险亦不容忽视。 (小标题)新一代操作系统平台的雏形 多语言撰写充满想象力的诗歌,编写可运行的程序,快速生成论文摘要,自动制作数据表格,纠正文章中的语法和表达错误,把一周大事写成新闻综述……ChatGPT不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。 ChatGPT还轻松通过一些对人类难度较高的专业级测试:它新近通过了谷歌编码L3级(入门级)工程师测试;分别以B和C+的成绩通过了美国宾夕法尼亚大学沃顿商学院MBA的期末考试和明尼苏达大学四门课程的研究生考试;通过了美国执业医师资格考试……业界形容它的诞生是人工智能时代的“iPhone时刻”,意味着人工智能迎来革命性转折点。 “ChatGPT的成功不应仅仅被看作新一代聊天机器人的突破,而应该重视其对人工智能乃至整个信息产业带来的革命。”北京智源人工智能研究院院长黄铁军接受记者专访时说,人工智能领域的过去十年是深度学习的十年,但产业总体上并没有出现移动互联网和云计算级别的爆发,“ChatGPT的出现,具有划时代意义,大模型+ChatGPT已形成新一代操作系统平台的雏形”。 黄铁军说,ChatGPT在技术路径上采用了“大数据+大算力+强算法=大模型”路线,又在“基础大模型+指令微调”方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。ChatGPT应用了“基于人类反馈的强化学习”训练方式,用人类偏好作为奖励信号训练模型,促使模型越来越符合人类的认知理解模式。 “这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。”中国科学技术大学机器人实验室主任陈小平对记者说。 (小标题)引发新一轮人工智能科技竞赛 ChatGPT的问世正在人工智能领域引发新一轮科技竞赛。北京时间2月8日凌晨,微软推出由ChatGPT支持的最新版本必应搜索引擎和Edge浏览器,宣布要“重塑搜索”。微软旗下Office、Azure云服务等所有产品都将全线整合ChatGPT。 北京时间2月7日凌晨,谷歌也发布了基于谷歌LaMDA大模型的下一代对话AI系统Bard。同一天,百度官宣正在研发的大模型类项目“文心一言”,计划在3月完成内测,随后对公众开放。阿里巴巴、京东等中国企业也表示正在或计划研发类似产品。 人工智能大模型领域的全球竞争已趋白热化。黄铁军认为,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。 值得注意的是,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成虚假信息、版权争议等人工智能通用风险。多家全球知名学术期刊为此更新编辑准则,包括任何大型语言模型工具都不会被接受为研究论文署名作者等。 “学术论文的署名作者须满足至少两个条件,其一是在论文工作中做出‘实质性贡献’,其二是能承担相关的责任。目前这两个条件ChatGPT(以及其他AI系统)都不满足。”陈小平说。 ChatGPT也有应用在舆论信息战方面的潜力。加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠疫情的文章,然后要求其生成关于这场危机的“反事实新闻”。连OpenAI也警告使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。 “针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。(完) 举报/反馈
谷歌大模型团队并入DeepMind!誓要赶上ChatGPT进度
研博论文

谷歌大模型团队并入DeepMind!誓要赶上ChatGPT进度

明敏 发自 凹非寺量子位 | 公众号 QbitAI 为应对ChatGPT,谷歌在大模型方面的动作还在继续。 最新消息,其旗下专注语言大模型领域的“蓝移团队”(Blueshift Team)宣布,正式加入DeepMind,旨在共同提升LLM能力! DeepMind科学家们在推特下面“列队欢迎”,好不热闹~ 蓝移团队隶属于谷歌研究,和谷歌大脑实验室同等级。 之前谷歌耗时2年发布的大模型新基准BIG-Bench,就有该团队的重要贡献。 还有谷歌5400亿大模型PaLM,背后也有蓝移团队成员提供建议。 综合此前消息,DeepMind表示要在今年发布聊天机器人麻雀(Sparrow)内测版本。 如今又有擅长大模型研究的团队加入,强强联手,或许会加快谷歌应对ChatGPT的脚步? 这下有好戏看了。 蓝移团队是谁? 据官网介绍,蓝移团队主要关注的研究点是如何理解和改进大语言模型的能力。 他们专注于了解Transformer的局限性,并挑战将其能力扩展到解决数学、科学、编程、算法和规划等领域。 具体可分为如下几方面分支。 团队的代表性工作有数学做题模型Minerva。 它曾参加数学竞赛考试MATH,得分超过计算机博士水平。 综合了数理化生、电子工程和计算机科学的综合考试MMLU-STEM,它的分数比以往AI高了20分左右。 并且它的做题方法也是理科式的,基于谷歌5400亿参数大模型PaLM,Minerva狂读论文和LaTeX公式后,可以按照理解自然语言的方式理解数学符号。 作者透露,让该模型参加波兰的数学高考,成绩都超过了全国平均分数。 还有蓝移团队曾和MIT的科学家一起,通过训练大模型学会程序员debug时“打断点”的方式,就能让模型读代码的能力大幅提升。 还有谷歌耗时2年发布的大模型新基准BIG-Bench,蓝移团队全部成员均参与了这项工作。 BIG-bench由204个任务组成,内容涵盖语言学、儿童发展、数学、常识推理、生物学、物理学、社会偏见、软件开发等方面的问题。 以及如上提到的谷歌大模型PaLM,蓝移团队成员Ethan S Dyer也贡献了建议。 官网显示,蓝移团队目前有4位主要成员。 Behnam Neyshabur现在是DeepMind的高级研究员。他在丰田工业大学(芝加哥)攻读了计算机博士学位,后来在纽约大学进行博士后工作,同时是普林斯顿大学高等研究理论机器学习项目组的成员。 研究领域是大语言模型的推理和算法能力、深度学习和泛化等。 Vinay Ramasesh在加州大学伯克利分校获得物理学博士学位,曾致力于研究基于超导量子比特的量子处理器,硕士毕业于麻省理工学院。 最近他主要在研究语言模型,职位是研究科学家。 Ethan Dyer博士毕业于麻省理工学院,2018年加入谷歌工作至今。 Anders Johan Andreassen同样是物理专业出身,博士毕业于哈佛大学。在哈佛大学、加州大学伯克利分校都做过博士后,2019年起加入谷歌。 谷歌还有多少后手? 这次蓝移团队的调动,也不免让外界猜测是否是谷歌为应对ChatGPT的最新举措。 ChatGPT引爆大模型趋势后,谷歌几乎是最先打响“阻击战”的大厂。...
神秘上线!Claude2聊天机器人能否成为ChatGPT的最强大对手?
研博论文

神秘上线!Claude2聊天机器人能否成为ChatGPT的最强大对手?

本文介绍了全新聊天机器人Claude 2的发布,由前OpenAI高级成员Daniela Amodei和Dario Amodei创立的Anthropic公司开发。Claude 2具备编写代码、分析文本和撰写文章的能力,并支持中文。尽管其与ChatGPT有竞争关系,但两者在功能上有所不同,Claude 2在编码能力方面有所提升,且在某些方面具有独特优势。目前Claude 2仅限于美国和英国地区使用,需付费购买 ChatGPT Plus 服务才能使用部分高级功能。
双眸聚焦李冬梅与核子可乐:探索与和解的奇妙旅程
研博论文

双眸聚焦李冬梅与核子可乐:探索与和解的奇妙旅程

这篇文章是由李冬梅和核子可乐共同撰写的。他们探讨了科技发展对人类社会的影响。李冬梅认为科技的发展虽然给人们带来了便利,但也带来了一些问题,如环境污染和社会不公。核子可乐则从技术的角度出发,指出科技的进步可以推动经济的发展,提高生产效率,改善人们的生活质量。然而,他们也提到,科技发展需要考虑到人类的福祉,必须确保技术是用于服务人类的。
“ChatGPT大模型:颠覆性变革的冲击与应对”
研博论文

“ChatGPT大模型:颠覆性变革的冲击与应对”

文章讨论了ChatGPT在苹果应用商店的表现及面临的挑战。尽管ChatGPT在短时间内获得了大量下载,但其网页流量入口逐渐放缓,访问量增速也开始放缓。与此同时,其他竞争对手开始复制ChatGPT的增长速度进行追赶,使得ChatGPT面临着更多的后来者围猎。为了应对这种情况,一些网站开始采取措施提高桌面数据流通的门槛。虽然移动生态可以為ChatGPT的大模型圈地运动,快速抬高流量天花板,但同时也受到移动端更成熟的软硬件闭环的限制。
ChatGPT越来越“有人味”,人类该何去何从?听听大咖们怎么说
研博论文

ChatGPT越来越“有人味”,人类该何去何从?听听大咖们怎么说

最近,许多人都多了一位“网友”——ChatGPT。 它是一个聊天机器人,由美国人工智能公司OpenAI推出,从2022年12月1日正式发布至今,月活跃用户已达1亿,成为历史上增长最快的消费者应用程序。 说是聊天机器人,它可不只能“唠嗑”。大数据、大算力、强算法赋予了它“超级大脑”。它能写作业、写论文、当助教,写代码更是“老本行”,能通过工程师测试、硕士期末考试,俨然一个“全能学霸”。 强化学习、交互训练又让它学会“说人话”。它也能创作文案、小说、剧本,比起它的AI前辈们,改掉了很多“机器腔”。 但毫不例外,ChatGPT也有站在阴影里的另一面。偏见无法避免,成本依旧高昂,推理能力不足,甚至会“一本正经地胡说八道”。还有不少用户吐槽,ChatGPT给出的参考建议笼统模糊、过于四平八稳,缺乏信息密度,常有“正确的废话”。 ChatGPT究竟是不是钻进人类社会的一条鲶鱼? ChatGPT是否宣告“强人工智能”时代的到来? ChatGPT如何影响人类的未来,它自身的未来又会迈向何方? 当AI越来越强大甚至无限趋近于人,甚至超越于人,那么属于人的,还有哪些抢不走的领地和独特的价值? 近日,新华社中国搜索团队召集业界权威专家,剖析前沿,华山论剑,透视“风口”,把脉AI的发展。 来源:2月17日《新华每日电讯》 整理:新华每日电讯记者王若辰 ■访谈嘉宾 王金桥:中国科学院自动化研究所研究员 唐 明:中国科学院自动化研究所研究员 陈雨强:第四范式首席科学家、联合创始人 季逸超:第四范式科学家 沈 阳:清华大学新闻学院教授 高 跃:清华大学软件学院副教授 车万翔:哈尔滨工业大学计算机学院教授 凌 强:中国科学技术大学自动化系教授 杨 君:清华大学自动化系副研究员 吴 楠:南京大学计算机系副教授 何俊良:上海交通大学计算机系助理教授 漫画 曹一“强人工智能”时代就此到来? 王金桥:ChatGPT基本上把2021年及以前互联网上所有的数据都学习了一遍,相当于一个世界知识的统一建模。在如此规模的参数量下,更好的关联推理就能够实现了,也能够通过算法更好地模拟人的意图。所以业内很多人认为ChatGPT是人工智能的再一次革命性突破。 但也有人不认可,认为ChatGPT还只是世界知识的一个组合,基于组合产生了一些观点和判断。 我认为ChatGPT现在的问题,一是对常识的建模弱了点,很多网友晒出了ChatGPT“翻车”、令人啼笑皆非的回答;二是缺乏多模态的信息,目前它的推理较弱,理解不了诸如“说曹操曹操到,到底是小明到了还是曹操到了”这样的信息。 车万翔:回顾自然语言处理发展史,可以发现一个有趣现象:20世纪50年代,自然语言处理初代范式诞生,主要是做专家知识系统,或用小规模的规则系统实现机器自处理,这一阶段持续了约40年;之后进入浅层机器学习算法阶段,持续了约20年;2010年后开启了深度学习算法时代,直到2018年第一代GPT等的面世,又带我们走进大规模预训练模型的时代;4年后,正是2022年末,ChatGPT引爆全球关注——每一代突破性技术诞生的间隔,都差不多是上一代的一半。按“摩尔定律”继续推演,我们可以憧憬,到2025年可能会有新的、更强大的AI诞生。 凌强:ChatGPT比我想象得要好。在我的想象中,ChatGPT可能会给我“和稀泥”的回答,相当于没有对也没有错,但实际上它给我的答案还是有针对性的,从AI技术的角度讲,ChatGPT在特征工程上应该有非常强大的方案。 另外,当我用同一问题反复问它,它的回答并非千篇一律,而是具有一定的差异性。这也让它更像“人”,毕竟问一个人想吃什么,他每次会有不同的回答,这说明ChatGPT的随机决策模型也做得不错。 沈阳:我认为,ChatGPT在技术上是弱人工智能走向强人工智能的重要节点。从商业上来说,应该会引发一场大洗牌。对善于使用网络的人来说,ChatGPT可以成为非常好的助手,在文案写作、检索等领域,能简化三四成的工作量。 杨君:ChatGPT最具突破性的方面在于逻辑衔接能力,但我认为它还不具备独立推理能力。有用户用三段论跟它对话,它得出了不太符合常识的推论,这是AI还赶不上人脑的一大方面。人脑的强大,就在于归纳和推理能力。有人拿阿尔法狗战胜围棋世界冠军,来证明人脑比不过“AI脑”,然而,目前的智能决策都还仅限于特定场景,算法在特定规则下才能表现出非常强的能力。我认为,能适应和突破变化的规则,是强人工智能的重要发展方向。 吴楠:不少用户发现,ChatGPT在一些常识性的、正常人绝对不会犯错的问题上经常犯错,需要人工干预和修正。而到底什么是常识性问题呢?这个界定其实是很困难的,触碰到了比模型本身更高一层、更加原始的“源问题”。对此的研究和探讨,有助于厘清AI在哪些地方需要人的修正和帮助,划分出人机边界。 季逸超:在搜索场景下,ChatGPT还面临一些挑战。对于事实性的问题,机器通过学习能得出一致的答案,比如“中国的首都在哪里?北京”。但对于观点性的、百家争鸣的问题,如何保证机器学习后,能给我们一个全面公正、没有偏见的结果? 陈雨强:我问了ChatGPT一个问题:如果要做生意,是卖咖啡好还是卖椰子水好?这个问题背后,其实是对商业模式的判断。对ChatGPT而言,如果曾有人在互联网上对比过卖咖啡和卖椰子水,而且分析得有见地,那么ChatGPT就能给出令人满意的回答;但如果先前从未有人写过这类文章,ChatGPT是不能产生相关见解的。 无所不能,但对真实性概不负责? 高跃:ChatGPT生成的内容,面临真实性、准确性以及版权方面的问题。这也给我们带来很多挑战——除了辨别真伪、保护版权,还要能够识别这到底是不是个人的创作,或者能区分出哪部分是AI生成,哪部分是人的创作。 陈雨强:对于一篇专业性或学术性的文章,署名作者是一定要负责的,而恰恰ChatGPT是不能负责的。学术论文的署名作者,既要对论文做出了“实质性贡献”,又要能承担相关的责任,而这两条ChatGPT都不满足,并且现阶段ChatGPT生成的内容完全达不到“文不加点”、无需加工的程度,而是需要人的修改、润色、校对,最终得由人来署名。那么,人的智力参与达到什么标准才能署名?这就牵涉到识别内容究竟是由人还是机器生成的问题。 何俊良:如果问ChatGPT我们自己不熟悉的专业领域的问题,它的回答会看起来非常专业,但实际上可能包含很多错误的知识和误导性观点,而我们难以分辨。 真实性问题会带来信赖危机,而一旦公众不敢信赖一款应用,它也便难于发展。比如自动驾驶技术,就算准确性达到99%,但由于AI的决策不可解释、不可完全控制,很多人就不信赖它,不愿意去使用,这也导致自动驾驶技术一直未能普及。 大语言模型目前最亟待解决的问题之一,就是怎么去判断AI的输出到底是对是错,学界也特别关心。 陈雨强:可信性问题确实很重要。目前ChatGPT热度正劲,但除了日活数据,还有一个关键指标是用户留存数,也就是有多少人在一周、一个月、半年之后还在持续使用这款产品。 信息或知识来源是否可靠,每条引用甚至每句话是否都有出处,推理是否经过验证,生成的文章是否可溯源,都会影响用户留存。新鲜劲过去后,可信性问题直接影响用户还愿不愿意使用这款产品。 技术厮杀激烈,蓝海很快会“染红”?...
ChatGPT与生成式AI技术:研究生论坛聚焦未来发展
研博论文

ChatGPT与生成式AI技术:研究生论坛聚焦未来发展

5月6日至8日,我国信息学院成功举办了“ChatGPT与生成式AI技术”研究生论坛,邀请了朱习军、陶冶两位老师指导,吸引了130余位研究生同学的参与。论坛以“ChatGPT介绍和应用”、“业界主流的生成式模型”、“AIGC带来的机遇与挑战”为主题进行了深度探讨。在论坛中,同学们积极分享了ChatGPT的应用案例以及与其他主流生成模型的对比,深入剖析了ChatGPT的价值和发展前景。此次论坛不仅提升了大家对ChatGPT的认识,更为未来人工智能技术的发展指明了方向。