ChatGPT真的独霸天下无所不能吗?看看它的技术、缺陷与合规
祝世虎(人工智能博士) 在2月18日参加完由清华大学经济管理学院中国金融研究中心和新网银行共同举办“ChatGPT爆火后的冷思考”数字金融智库沙龙后,我感触颇多! 我是2009年博士毕业于北京大学智能科学系,自2005年建系以来的第一批AI博士。那时的AI只在书本里,2016年AlphaGo让AI走到了资本里,2022年ChatGPT则让AI飞入寻常百姓家! 作为一个AI老兵,虽然在金融领域的风险、科技、数据部门工作多年,但“AI工程师”的初心犹在,下面我就以一个工程师的视角,以通俗易懂的文字,尝试讲解一下ChatGPT的技术、缺陷与合规等问题。 一、ChatGPT简述 (一)ChatGPT:从技术到客户的珠联璧合 冷静思考下,ChatGPT为什么突然间获得人们追捧?我认为这是技术的成功,是产品的成功,是营销的成功,是客户的成功,更是技术、产品、营销、客户的珠联璧合。 从技术和产品角度看,ChatGPT具有易用、好用、实用的特性。 一是易用,OpenAI斥巨资提供了便捷的API接口,每个人都可以很方便的接入;二是好用,其效果远远高于同类型的传统产品,出乎意料的效果吸引了更多的人进行试用;三是实用,有些学生用ChatGPT来写作业,有些程序员用ChatGPT来代码,有些画师用ChatGPT来绘画,这就体现了ChatGPT的实用性。 从客户和营销角度,上述“易用、好用、实用”完美诠释了ChatGPT的客户策略或者客户旅程。 “易用”带来了万千的客户,“好用”使得一个个好奇的测试者变成了初级使用者,“实用”使得初级使用者变为了坚定使用者。 从我个人理解来看,我更想倾向于把ChatGPT的成功主因归因于客户营销的成功。以AI的上一个里程碑AlphaGo为例,其技术也是领先,但是客户却只局限于围棋的垂直领域;再以二维码支付为例,其技术与其竞品相比并不先进,但其“易用、好用、实用”带来的客户体验,使得二维码支付取得了极大的成功。 (二)OpenAI:工程师的世外桃源 OpenAI人工智能研究实验室成立于2015年,主要由微软资助,目的是促进和发展友好的人工智能。OpenAI公司最优质的资产就是,有300多名工程师,他们“自由散漫”但“理想崇高”,无忧无虑地以工程师的思维来改变世界,这或许就是我前文说的工程师的初心。 (三)Microsoft:第三代的王者 微软是OpenAI的幕后金主,并且一直为其提供算力,这体现了微软这个office王者对文字的深刻理解。纵观历史: 第一代王者:微软的office是第一代的王者,人们实现了文字的电子化,并通过对文字的“Ctrl+C与Ctrl+V”减轻了人的工作量,但其文字范围仅为身边小范围的文字; 第二代王者:Google的搜索引擎是第二代王者,人们实现了对历史文字(已有文字)的使用,文字范围由身边扩展到了整个互联网; 第三代王者:微软认为第三代的王者或许是自然语言生成,文字范围突破了已有文字。 (四)岗位之争:人与AI的边界线 有一群人类的工作是发展AI,与此同时,有另一群人类的工作却不断地被AI所取代,这个边界线一直在后退。 第一阶段,体力工作被机器取代;第二阶段,重复性工作被具有简单智能的机器取代;第三阶段,自动驾驶逐渐变为了现实;第四阶段,ChatGPT让人们相信AI会“创造”,那么未来可能任何不需要深度情感交流的工作,都会被AI所取代。 理性来看,ChatGPT对人们就业的冲击,和以往出现的生产力跃升并无本质区别,短期内会对岗位形成一定的结构性冲击,但中长期便会稳定。此时作为一个AI老兵,我也要为AI说一句话:抢走你工作的不是AI,而是先掌握AI的人。 二、ChatGPT的技术分析 (一)技术路线:工程师思维的成功 从技术角度看ChatGPT的成功,是得益于在自然语言处理NLP(Natural Language Processing)领域一群工程师的工程探索,从下文我们可以看出,工程师们基于工程探索的技术路线可能有别于研究者基于理论推导的技术路线。 从技术角度解释工程师思维并不易读,我尝试从逻辑角度解释一下工程师的思维。要做一个具有人的智能的机器,首先要创建一个大脑;其次要有学习资料;然后掌握学习方法;最后考试归来。这就形成了ChatGPT的技术路线的逻辑框架。 第一步,构建大脑,工程师们认为这应该是一个通用的大脑,什么都能学习,所以工程师们选择了通用人工智能AGI(Artificial General Intelligence)的构想:AGI应该是一个大系统,系统的核心是一个与任务无关的大模型,大模型依靠大算力从海量大数据中学习人类的知识,从而形成AI智能。这就是工程师们的系统思维。 第二步,学习资料,人类知识的载体是文字和语言,所以工程师们选择了大型语言模型LLM(Large Language Model)。在这群工程师的眼里,大算力、大存储、大数据使得大模型的工程实践成为了可能,更成了工程师的“心猿意马”!随着数据越来越大,算力越来越大,模型越来越大,效果越来越好,这就是工程师们“力大砖飞”的思维。 第三步,学习方法,工程师们选择了GPT的技术路线,并坚持了下去。在当时的NLP领域,深度学习模型已经遇到瓶颈,通过增加模型层深来提升模型效果微乎其微,深度学习模型已经逐步被预训练模型所取代。在预训练模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)两种技术实现方式,两者看似比较相像,但其底层逻辑的截然不同。 从当时的论文发表来看,研究者大部分选择了BERT技术,而工程师们大部分选择了GPT技术。回头看分析其原因,我个人觉得研究者的思路一般是按部就班:先是完成自然语言理解任务,而后是完成自然语言生成任务,这就是BERT。工程师们则希望一步到位,越过自然语言理解任务,直接完成自然语言生成任务,这就是GPT。 第四步,考试归来,随着大算力、大数据的“厚积薄发”,大模型“量变突破质变”,能力超群的ChatGPT横空出世,获得了人们的追捧。 (二)智能涌现:人工智能的厚积薄发 最初的 GPT...