揭秘ChatGPT背后的天才团队?!编者按:
本科论文

揭秘ChatGPT背后的天才团队?!编者按:

原作标题深入探究了ChatGPT的背后研发团队,其成员来自知名学府和科技巨头,包括斯坦福大学、谷歌等,集结了多元专业背景。本文旨在揭示该技术成功背后的精英团队构建,为ChatGPT的创新与影响力提供了重要支撑。
ChatGPT是否已超越人类智慧?对话式AI的专业研究隐藏风险
期刊论文

ChatGPT是否已超越人类智慧?对话式AI的专业研究隐藏风险

美国OpenAI的ChatGPT近期广受关注,被比尔盖茨誉为历史意义重大的人工智能技术。它通过图灵试验展现高仿真度,能根据提问调整答案且在创造性工作如写作中表现出色。然而,文章指出使用ChatGPT进行专业研究存在不准确、偏见和抄袭问题,其错误源于训练中的信息不足或辨别能力,强调了对人工智能生成产品的人工验证必要性。
#ChatGPTvsTruthGPT?科技巨头角力,人工智能新规则出台?
期刊论文

#ChatGPTvsTruthGPT?科技巨头角力,人工智能新规则出台?

欧盟正计划制定针对ChatGPT等强人工智能的新规则,以促进安全可靠的人工智能发展;SpaceX的星舰火箭发射因技术问题推迟,OpenAI告知员工将进行部分股权收购;科技领域公司如华为、拓荆科技和佰维存储发布了各自的年度报告,有的呈现增长,有的则出现下滑;歌尔股份和亿纬锂能也发布了业绩预报,净利润均有不同程度下降。极地熊的习性
Watson助SAP转型?AI云搜索新纪元,IBM与SAP的智能合作何改变商业世界?
本科论文

Watson助SAP转型?AI云搜索新纪元,IBM与SAP的智能合作何改变商业世界?

ERP巨头SAP已与IBM合作,利用Watson AI技术优化云解决方案中的应用程序搜索、启动和交互,通过自然语言处理提高生产力,标志着双方“里程碑式的合作”。 Watson曾因Jeopardy胜利引领AI商业化,但近年来财务表现下滑,IBM已出售相关业务。然而,随着LLMs的兴起,如ChatGPT对教育领域的挑战,SAP预计将在本月会议上提及人工智能投资趋势。
王硕与姜跃平:GPT应用与人工智能的未来前景
本科论文

王硕与姜跃平:GPT应用与人工智能的未来前景

王硕和姜跃平讨论了百姓AI团队是是国内最早进入GPT应用和研究的团队之一。GPT是一个大语言模型,能处理各种语言及与语言相关的信息,被称为能说会道的文科生,但在解决偏理科问题(如图像、视频、逻辑和数学)上仍有局限。尽管如此,ChatGPT仍能完成一些日常杂活,帮助人们腾出时间做更有挑战性的工作。他们对AI的未来充满期待,认为随着AI发展,能做的事情会越多,但人类仍需学会如何理解和利用这些工具,以实现人机协同,开拓全新未来。
AI机器人RT-2:视觉语言动作模型的新突破
本科论文

AI机器人RT-2:视觉语言动作模型的新突破

RT-2可以学会猜测机械臂应该如何移动来捡起球,或将空汽水罐扔进回收站垃圾桶。 智东西7月29日消息,Google DeepMind再放AI机器人大招!周五,这家前沿AI研究机构宣布以训练AI聊天机器人的方式训练了一款全新的机器人模型Robotic Transformer 2(RT-2)。 打开凤凰新闻,查看更多高清图片 RT-2相当于机器人版ChatGPT,被Google DeepMind称作是其视觉-语言-动作 (VLA)模型的新版本。该模型可以教会机器人更好地识别视觉和语言模态,能够解释人类用自然语言发出的指令,并推断出如何做出相应的行动。它还可以理解英语以外的语言的指示。 结合思维链推理,RT-2可以执行多阶段语义推理。即便是一些抽象概念,RT-2也能理解并指挥机械臂做出正确的动作。比如让它找一把临时用的简易锤子,它会抓起石头;让它给疲惫的人选一款饮料,它会选择红牛;让它把可乐罐移到泰勒·斯威夫特的照片上,它也能顺利完成。 根据论文,RT-2模型基于网络和机器人数据进行训练,利用了谷歌自己的Bard等大型语言模型的研究进展,并将其与机器人数据(例如要移动的关节)相结合,然后将这些知识转化为机器人控制的通用指令,同时保留web-scale能力。 Google DeepMind博客文章写道,RT-2显示出超越其所接触的机器人数据的泛化能力以及语义和视觉理解能力,包括解释新命令并通过执行基本推理(例如关于对象类别或高级描述的推理)来响应用户命令。 其将信息转化为行动的能力表明,机器人有望更快地适应新的情况和环境。 在对RT-2模型进行了超过6000次的机器人试验后,研究团队发现,RT-2在训练数据或“可见”任务上的表现与之前的模型RT-1一样好。它在新奇的、不可预见的场景中的表现几乎翻番,从RT-1的32%提高到62%。 01 让机器人用AI大模型学习新技能 机器人技术领域正悄然进行一场革命——将大型语言模型的最新进展引入机器人,让机器人变得更聪明,并具备新的理解和解决问题的能力。 《纽约时报》技术专栏作家凯文·罗斯(Kevin Roose)在谷歌机器人部门观看了实际演示,工程师给机器人发出指令:“捡起灭绝的动物”,一个单臂机器人呼呼地响了一会儿,然后伸出机械臂,爪子张开落下,准确抓住了它面前桌子上的恐龙塑料制品。 ▲《纽约时报》拍摄的视频 在这场长达1小时的演示中,RT-2还成功执行了“将大众汽车移到德国国旗上”的复杂指令,RT-2找到并抓住一辆大众巴士模型,并将其放在几英尺外的微型德国国旗上。 ▲两名谷歌工程师Ryan Julian(左)和Quan Vuong成功指示RT-2“将大众汽车移到德国国旗上”。(图源:《纽约时报》) 多年以来,谷歌和其他公司的工程师训练机器人执行机械任务(例如翻转汉堡)的方式是使用特定的指令列表对其进行编程。然后机器人会一次又一次地练习该任务,工程师每次都会调整指令,直到得到满意的结果为止。 这种方法适用于某些有限的用途。但以这种方式训练机器人,既缓慢又费力。它需要从现实世界的测试中收集大量数据。如果你想教机器人做一些新的事情(例如从翻转汉堡改做翻转煎饼),你通常必须从头开始重新编程。 部分源于这些限制,硬件机器人的改进速度慢于基于软件的同类机器人。 近年来,谷歌的研究人员有了一个想法:如果机器人使用AI大型语言模型(来为自己学习新技能,而不是逐一为特定任务进行编程,会怎样? 据谷歌研究科学家卡罗尔·豪斯曼(Karol Hausman)介绍,他们大约两年前开始研究这些语言模型,意识到它们蕴藏着丰富的知识,所以开始将它们连接到机器人。 高容量视觉-语言模型(VLM)在web-scale数据集上进行训练,使这些系统非常擅长识别视觉或语言模式并跨不同语言进行操作。但要让机器人达到类似的能力水平,他们需要收集每个物体、环境、任务和情况的第一手机器人数据。 RT-2的工作建立在RT-1的基础上。这是一个经过多任务演示训练的模型,可学习机器人数据中看到的任务和对象的组合。更具体地说,谷歌的研究工作使用了在办公室厨房环境中用13个机器人在17 个月内收集的RT-1机器人演示数据。 谷歌首次尝试将语言模型和物理机器人结合起来是一个名为PaLM-SayCan的研究项目,该项目于去年公布,它引起了一些关注,但其用处有限。机器人缺乏解读图像的能力,而这是能够理解世界的一项重要技能。他们可以为不同的任务写出分步说明,但无法将这些步骤转化为行动。 谷歌的新机器人模型RT-2就能做到这一点。这个“视觉-语言-动作”模型不仅能够看到和分析周围的世界,还能告诉机器人如何移动。 它通过将机器人的动作转换为一系列数字(这一过程称为标注)并将这些标注合并到与语言模型相同的训练数据中来实现这一点。 最终,就像ChatGPT或Bard学会推测一首诗或一篇历史文章中接下来应该出现什么词一样,RT-2可以学会猜测机械臂应该如何移动来捡起球,或将空汽水罐扔进回收站垃圾桶。 02 采用视觉语言模型进行机器人控制 RT-2表明视觉-语言模型(VLM)可以转化为强大的视觉-语言-动作(VLA)模型,通过将VLM预训练与机器人数据相结合,直接控制机器人。 RT-2以视觉-语言模型(VLM)为基础,将一个或多个图像作为输入,并生成一系列通常代表自然语言文本的标注。此类VLM已接受web-scale数据的训练,能够执行视觉问答、图像字幕或对象识别等任务。Google DeepMind团队采用PaLI-X和PaLM-E模型作为RT-2的支柱。 为了控制机器人,必须训练它输出动作。研究人员通过将操作表示为模型输出中的标注(类似于语言标注)来解决这一挑战,并将操作描述为可以由标准自然语言标注生成器处理的字符串,如下所示: ▲RT-2训练中使用的动作字符串的表示形式。这种字符串的示例可以是机器人动作标记编号的序列,例如“1 128...
人工智能的哲学困境:ChatGPT的机制化解读
研博论文

人工智能的哲学困境:ChatGPT的机制化解读

复旦大学哲学学院教授徐英瑾 recent academic report discussed the shortcomings of ChatGPT, a popular AI chatbot. From a philosophical perspective,徐英瑾 argued that ChatGPT oversimplifies human opinions and reinforces the phenomenon of "self-deception." He also noted that while AI advancements are statistically significant, they do not necessarily equate to true...