ChatGPT与大模型:开启人类通用智能之旅
未分类

ChatGPT与大模型:开启人类通用智能之旅

欧洲科学院外籍院士、清华大学人工智能研究院常务副院长孙茂松教授,在2023年6月5日,针对传播研究院博士生进行了主题为“ChatGPT和大模型:开启人类的通用人工智能之旅”的讲座。孙教授详细解析了ChatGPT和大模型的基本机理,目前的发展态势,以及可能带来的新机遇和挑战。他同时也探讨了ChatGPT对各行各业,尤其是内容产业的影响,并对人工智能领域中存在的性别歧视问题提出了自己的看法。孙教授还强调,我国人工智能快速发展受益于国外技术开源,但技术壁垒的存在也反映出中外在技术研究中的方法论的差距。这次讲座不仅提升了博士生的学术视野,也对前沿科技的发展产生了深远影响。
清华造了个游戏公司!十余个ChatGPT上岗,7分钟开发一款游戏
未分类

清华造了个游戏公司!十余个ChatGPT上岗,7分钟开发一款游戏

克雷西 发自 凹非寺量子位 | 公众号 QbitAI 清华用ChatGPT打造了个「零人工含量」的「游戏公司」,从老板到员工都是AI的那种! 只要你提出想法,从设计到测试的完整流程,都由AI帮忙搞定。 整个过程走下来,只要七分钟就能完成,成本不到0.3美元(人民币两块多一点)! 这个「公司」被命名为「ChatDev」,顾名思义,就是通过聊天来进行开发。 在「公司」中,十多个聊天机器人分别扮演着不同的角色,串联在一起完成开发工作。 整个过程用ChatGPT就能完成,无需为每个环节专门训练相应的模型。 这个「公司」开发一款游戏的平均时间是409.84秒,最快的甚至不到三分钟,最慢的也不过17分钟。 消耗方面,ChatDev使用的是ChatGPT的API(3.5-turbo),平均每款游戏使用约48.5K个token。 根据这一数据计算,用它来开发游戏,平均每款的成本仅需0.2967美元。 那么,这家「公司」是如何运转的呢? 让AI分工合作 研究团队为这个「公司」设计了一套由ChatGPT串联起的「ChatChain」。 每个bot分别扮演CEO、程序员、设计师等不同角色,涵盖了游戏研发涉及的所有岗位。 为了避免出现失误或幻觉,研发过程中的每一个步骤都由两个bot共同完成。 具体而言,ChatDev在制作游戏时一共需要经历设计-编程-测试-文档这四个大环节。 在设计环节开始之前,人类会提供一个初步的想法,这也是唯一需要人类的地方。 这个想法将由bot扮演的CEO、CTO和CP(roduct)O共同进行分析评估。 CEO会分别与CPO和CTO进行讨论,决定游戏的呈现形式(Web/桌面/移动端…)和使用的编程语言。 此外,设计环节中,每个bot具体扮演的角色,是由两个instructor(也是bot)分配的。 为了提高设计工作的质量,团队还引入了「记忆流」和「自我反思」两种工作机制。 「记忆流」会保存每轮对话的记录,供各个bot随时翻阅,确保思路的连贯性。 「自我反思」机制是在bot们完成了各自的工作但没有达到要求时,生成一个「伪我」,将问题和有关对话向instructor进行反馈。 设计工作结束之后,就进入到了编程环节,包括代码撰写和图形界面设计。 CTO向程序员提出要求和大致思路,然后程序员编写代码。 设计师会生成GUI方案,并调用有关工具生成图像资源,由程序员进行集成。 编程过程同样引入了提升质效的工作机制,具体而言包括「代码管理」和「思维指导」。 代码管理机制可以保存开发工程中的多个版本,以便出现问题时能够进行回滚。 而思维指导机制的两点则是让CTO和程序员「互换角色」,相互了解彼此的想法,当出现问题时能更好解决。 程序编好之后,就要进行测试了。 测试环节分为对代码的审查和实际运行两步,涉及「代码审查员」和「测试工程师」两个角色。 测试过程同样引入了「思维指导」机制,当测试反馈不明确时,程序员和测试工程师会进行角色互换。 测试完成之后,游戏的本体就大功告成了,接下来要做的是撰写文档。 文档主要包括环境说明和用户手册两类。 前者说明了游戏运行所需依赖的环境,由CTO指导程序员完成。 而后者则由是CEO决定包含的内容,交由CPO进行生成。 到此,一款游戏的开发工作就全部结束了。 除了提供开始的想法,整个流程再没有出现过人类的影子。 当然,这个流程中的对话、代码等信息对人类都是可见的,确保了开发的灵活性。 如有需要,也可以进行人工干预,比如替换掉生成的GUI。 以上就是关于ChatDev工作过程的全部介绍。...
文章ChatGPT:通向通用人工智能的关键所在
未分类

文章ChatGPT:通向通用人工智能的关键所在

这篇文章主要报道了清华大学人工智能研究院名誉院长、中国科学院院士张钹在世界人工智能大会升华人工智能产业高峰论坛上的演讲。张科学院长的演讲涵盖了他在人工智能领域的经历、对当前技术的发展以及他对未来人工智能的展望。他指出,ChatGPT是通用人工智能的 spark,它具有通用人工智能的两个特征:在对话和聊天领域达到人工智能的目标,以及在不同领域进行多任务处理。他还强调了人工智能的三个关键技术突破,即词嵌入的文本语意表示、基于注意机制的转换器和自监督学习,这三个突破使得机器在处理文本时从简单的数据处理转变为知识处理。最后,张院士预测,这个突破将带来科技的革命和产业的变革,人工智能将从一个科学的领域转变为有理论的领域,并且首次迎来人工智能的理论和实践的革命。
ChatGPT真的独霸天下无所不能吗?看看它的技术、缺陷与合规
未分类

ChatGPT真的独霸天下无所不能吗?看看它的技术、缺陷与合规

祝世虎(人工智能博士) 在2月18日参加完由清华大学经济管理学院中国金融研究中心和新网银行共同举办“ChatGPT爆火后的冷思考”数字金融智库沙龙后,我感触颇多! 我是2009年博士毕业于北京大学智能科学系,自2005年建系以来的第一批AI博士。那时的AI只在书本里,2016年AlphaGo让AI走到了资本里,2022年ChatGPT则让AI飞入寻常百姓家! 作为一个AI老兵,虽然在金融领域的风险、科技、数据部门工作多年,但“AI工程师”的初心犹在,下面我就以一个工程师的视角,以通俗易懂的文字,尝试讲解一下ChatGPT的技术、缺陷与合规等问题。 一、ChatGPT简述 (一)ChatGPT:从技术到客户的珠联璧合 冷静思考下,ChatGPT为什么突然间获得人们追捧?我认为这是技术的成功,是产品的成功,是营销的成功,是客户的成功,更是技术、产品、营销、客户的珠联璧合。 从技术和产品角度看,ChatGPT具有易用、好用、实用的特性。 一是易用,OpenAI斥巨资提供了便捷的API接口,每个人都可以很方便的接入;二是好用,其效果远远高于同类型的传统产品,出乎意料的效果吸引了更多的人进行试用;三是实用,有些学生用ChatGPT来写作业,有些程序员用ChatGPT来代码,有些画师用ChatGPT来绘画,这就体现了ChatGPT的实用性。 从客户和营销角度,上述“易用、好用、实用”完美诠释了ChatGPT的客户策略或者客户旅程。 “易用”带来了万千的客户,“好用”使得一个个好奇的测试者变成了初级使用者,“实用”使得初级使用者变为了坚定使用者。 从我个人理解来看,我更想倾向于把ChatGPT的成功主因归因于客户营销的成功。以AI的上一个里程碑AlphaGo为例,其技术也是领先,但是客户却只局限于围棋的垂直领域;再以二维码支付为例,其技术与其竞品相比并不先进,但其“易用、好用、实用”带来的客户体验,使得二维码支付取得了极大的成功。 (二)OpenAI:工程师的世外桃源 OpenAI人工智能研究实验室成立于2015年,主要由微软资助,目的是促进和发展友好的人工智能。OpenAI公司最优质的资产就是,有300多名工程师,他们“自由散漫”但“理想崇高”,无忧无虑地以工程师的思维来改变世界,这或许就是我前文说的工程师的初心。 (三)Microsoft:第三代的王者 微软是OpenAI的幕后金主,并且一直为其提供算力,这体现了微软这个office王者对文字的深刻理解。纵观历史: 第一代王者:微软的office是第一代的王者,人们实现了文字的电子化,并通过对文字的“Ctrl+C与Ctrl+V”减轻了人的工作量,但其文字范围仅为身边小范围的文字; 第二代王者:Google的搜索引擎是第二代王者,人们实现了对历史文字(已有文字)的使用,文字范围由身边扩展到了整个互联网; 第三代王者:微软认为第三代的王者或许是自然语言生成,文字范围突破了已有文字。 (四)岗位之争:人与AI的边界线 有一群人类的工作是发展AI,与此同时,有另一群人类的工作却不断地被AI所取代,这个边界线一直在后退。 第一阶段,体力工作被机器取代;第二阶段,重复性工作被具有简单智能的机器取代;第三阶段,自动驾驶逐渐变为了现实;第四阶段,ChatGPT让人们相信AI会“创造”,那么未来可能任何不需要深度情感交流的工作,都会被AI所取代。 理性来看,ChatGPT对人们就业的冲击,和以往出现的生产力跃升并无本质区别,短期内会对岗位形成一定的结构性冲击,但中长期便会稳定。此时作为一个AI老兵,我也要为AI说一句话:抢走你工作的不是AI,而是先掌握AI的人。 二、ChatGPT的技术分析 (一)技术路线:工程师思维的成功 从技术角度看ChatGPT的成功,是得益于在自然语言处理NLP(Natural Language Processing)领域一群工程师的工程探索,从下文我们可以看出,工程师们基于工程探索的技术路线可能有别于研究者基于理论推导的技术路线。 从技术角度解释工程师思维并不易读,我尝试从逻辑角度解释一下工程师的思维。要做一个具有人的智能的机器,首先要创建一个大脑;其次要有学习资料;然后掌握学习方法;最后考试归来。这就形成了ChatGPT的技术路线的逻辑框架。 第一步,构建大脑,工程师们认为这应该是一个通用的大脑,什么都能学习,所以工程师们选择了通用人工智能AGI(Artificial General Intelligence)的构想:AGI应该是一个大系统,系统的核心是一个与任务无关的大模型,大模型依靠大算力从海量大数据中学习人类的知识,从而形成AI智能。这就是工程师们的系统思维。 第二步,学习资料,人类知识的载体是文字和语言,所以工程师们选择了大型语言模型LLM(Large Language Model)。在这群工程师的眼里,大算力、大存储、大数据使得大模型的工程实践成为了可能,更成了工程师的“心猿意马”!随着数据越来越大,算力越来越大,模型越来越大,效果越来越好,这就是工程师们“力大砖飞”的思维。 第三步,学习方法,工程师们选择了GPT的技术路线,并坚持了下去。在当时的NLP领域,深度学习模型已经遇到瓶颈,通过增加模型层深来提升模型效果微乎其微,深度学习模型已经逐步被预训练模型所取代。在预训练模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)两种技术实现方式,两者看似比较相像,但其底层逻辑的截然不同。 从当时的论文发表来看,研究者大部分选择了BERT技术,而工程师们大部分选择了GPT技术。回头看分析其原因,我个人觉得研究者的思路一般是按部就班:先是完成自然语言理解任务,而后是完成自然语言生成任务,这就是BERT。工程师们则希望一步到位,越过自然语言理解任务,直接完成自然语言生成任务,这就是GPT。 第四步,考试归来,随着大算力、大数据的“厚积薄发”,大模型“量变突破质变”,能力超群的ChatGPT横空出世,获得了人们的追捧。 (二)智能涌现:人工智能的厚积薄发 最初的 GPT...