文章主题:
🚀📚《探索大模型智能边界》🔍——符尧带你深度解析!🌟在前两篇揭秘ChatGPT的旅程中,我详尽探讨了超大规模语言模型的潜力与革命性影响。现在,让我们一起跨越这股技术浪潮,探寻其智慧极限与演变维度。🎓💡不再停留于表面的模仿,而是跳出框架,OpenAI的组织架构和顶尖人才密度将为我们揭示更多秘密。🚀🏆我将引导你理解,如何通过模型演进与产品迭代,面对并解决那些最复杂、最具挑战性的问题。这不是简单的复现游戏,而是创新思维的实践场。💡🌟符尧,爱丁堡大学的博士生,用专业视角解读大模型未来,期待与你一起见证这场智能革命的深度解析。💌📚#大模型智慧 #OpenAI探索 #产品迭代创新
🔥ChatGPT震撼登场!🚀2022年底,OpenAI的核武器级创新引领全球科研与工程领域翻天覆地。💡中国对此反应热烈,ChatGPT引发了深入探讨和广泛热议。🔍在过去一个月里,我穿梭于顶尖高校、研究机构、知名企业及初创公司,从北至南,与各路巨头共襄盛举,一探究竟。🏆《Game of Scale》在中国已悄然上演,玩家们正面临国内技术与国际前沿的巨大挑战。🤔他们如何在鸿沟中实现突破?谁能成为这场变革的引领者?历史上的逐鹿之战,仿佛在暗示着今日科技版的淮阴侯争霸。🔍SEO优化提示:ChatGPT、OpenAI、科技创新、中国趋势、教育科研、企业生态、技术鸿沟、未来领袖、科技争霸
1三种不同的答案
🌟每当接触新兴创业项目时,我的首要疑问总是指向ChatGPT的挑战与定位——”你们如何看待它的存在,又打算如何独树一帜?”🤔这通常会引发三种颇具代表性的回应:第一种是积极拥抱,他们可能会提到如何利用现有技术或创新服务来应对;第二种是差异化策略,强调自身的独特价值和避开直接竞争;最后,有些则选择保持观察,暂不急于做出明确的应对。🚀无论哪种答案,都反映出创业界的动态与变化。
1.1做中国的 ChatGPT
🌟ChatGPT国产挑战者,迈向创新之路🚀首先,我们必须承认,模仿硅谷巨头并非易事,尤其是像ChatGPT这样的AI巨擘,背后是全球顶尖科学家与工程师的智慧结晶。💻从2015年起的持续研究,OpenAI的领军人物Ilya Sutskever坚信AGI的到来,Geoffrey Hinton的高徒以37万篇引用深度挖掘了过去十年的深度学习脉络。每一步迭代都精准且艰难,ChatGPT 3.5到3.5.5的进步就是一个鲜活的例证。然而,真正的核心并非ChatGPT本身,而是其基础模型——GPT 3.5系列。这是一个不断进化的引擎,2022年至今已有三个大版本迭代,每个都超越前作。同样,ChatGPT的快速迭代也显示出其技术的持续创新。🚀面对这样的竞争格局,盲目跟随而不去理解并提升基础,就像在船上刻记剑痕,期待它在下游出现。我们需要的是前瞻性思维,看到技术演进的趋势,而非停留在现有产品的层面上。🔥对于想要追赶的开发者,与其把精力放在短期内复制一个相似产品,不如聚焦于底层技术的创新和优化,因为那才是决定胜负的关键。🚀OpenAI的持续进步就像一场马拉松,我们不能坐等对手停下脚步,而应积极迎头赶上,用创新去定义我们的国产ChatGPT之路。🏃♂️💨
🌟探索科技巅峰:中国的OpenAI之路🚀1️⃣ 不止于产品,洞察未来驱动力🔍打造中国的OpenAI,意味着超越传统思维,关注基础模型背后的强大引擎——人才密度与先进组织架构的协同创新。一群集科学与工程于一身的精英们紧密合作,形成高效、目标导向的团队结构,迈向人工智能的尖端之路。2️⃣ 土壤与适应:创新的关键在于匹配🔍OpenAI的成功始于投资者对AGI的信念,而今天国内投资者关注点可能更多元。是追求盈利还是推动社会发展?如何在本土找到合适的云计算支持伙伴,成为关键挑战。组织架构和本地化策略同等重要。3️⃣ 智能极限:探索而非停留于模仿🌊真正的创新思维不拘泥于过去,敢于面对智能的极限,用创新方法解决最复杂问题。这需要我们深入思考如何驾驭大模型,突破技术边界。让我们一起踏上这场科技探索之旅,为中国OpenAI的崛起注入无尽活力!🏆
2极限思维
🌟ChatGPT与GPT-3.5:未来升级版的智能革命🚀🔥观察今日的ChatGPT及GPT-3.5,它们正逐步迈向技术的新高峰,潜在提升空间巨大!🔍1️⃣ 长度扩展战:从最初的8千个token跃升至现今的万级,随着efficient attention和recursive encoding的革新,context length有望实现质的飞跃,迈向十万乃至百万级别的深度学习新纪元。📈2️⃣ 模型与数据双驱动:模型规模仍有提升空间,MoE技术将引领其迈向T量级的庞大规模;海量人类反馈的数据持续增长,为模型的壮大提供源源动力。🔍3️⃣ 多模态融合:音频、图片和视频的加入,将使训练数据量翻倍,催生更多潜在能力,比如解析几何的学习可能仅需一窥。🌐4️⃣ 专业化深化:文科领域已展现研究生级智慧,理科则接近高中或大学水平,技能迁移让模型能精准定向,无需大规模扩展也能提升特定领域。🎓未来,随着技术的迭代与模型的进化,我们期待看到更多维度的拓展,这将要求我们具备前瞻思维,设想当所有潜力都得以释放时,ChatGPT会达到何种令人惊叹的境界。🚀#ChatGPT升级# #智能革命# #未来发展
2.1能够拉满全部拉满
模型的输入框可以接着加长,模型的大小可以继续增大,模型的数据可以继续增多,多模态的数据可以融合,模型的专业化程度可以继续增高,所有这些维度可以继续往上拉,模型还没有到极限。极限是一个过程,在这个过程中模型的能力会怎样发展呢?[gf]2022[/gf] Log-linear 曲线:一部分能力的增长会遵循 log-linear 的曲线,比如说某项任务的 finetuning。随着 finetune 数据的指数增长,模型所对应的 finetune 的任务的能力会线性增长。这部分能力会可预测地变得更强;[gf]2022[/gf] Phase change 曲线:一部分能力会随着 scaling 继续涌现,比如说上文中的模型做解析几何的例子。随着可以被拉满的维度被不断拉满,新的,难以预测的涌现能力会接着出现;[gf]2022[/gf]多项式曲线?当模型强到一定程度,与人类 align 到一定程度之后,或许一些能力的线性增长,所需要的数据,会突破指数增长的封锁,而降低到多项式的量级。也就是说,当模型强到一定程度之后,它或许不需要指数级的数据,而是只需要多项式级的数据,就可以完成泛化。这可以从人类的专业学习中观察到:当一个人还不是领域专家的时候,ta 需要指数级的数据来学习领域的知识;当一个人已经是领域专家的时候了,ta 只需要很少量级的数据就自己迸发出新的灵感和知识。所以,在极限思维下,把所有能拉满的维度全部拉满,模型注定会越来越强,出现越来越多的涌现能力。
2.2反推中间过程
在思考清楚极限的过程之后,就可以从极限状态往后反推中间过程。比如说,如果我们希望增长输入框的大小:[gf]2022[/gf]如果希望把模型的输入框从千的量级增长到万的量级,可能只需要增加显卡数量,进行显存优化就能实现;[gf]2022[/gf]如果希望接着把输入框从万的量级增长到十万的量级,可能需要 linear attention 的方法,因为此时加显存应该也架不住 attention 运算量随输入框长度的二次增长;[gf]2022[/gf]如果希望接着把输入框从十万的量级增长到百万的量级,可能需要 recursive encoding 的方法和增加 long-term memory 的方法,因为此时 linear attention 可能也架不住显存的增长。以这种方式,我们可以反推不同阶段的 scaling 需要怎样的技术。以上分析不止适用于输入框的长度,也适用于其他因素的 scaling 的过程。这样的话,我们可以得到清晰的从现阶段的技术到 scaling 极限的每个中间阶段的技术路线图。
2.3按模型演化进程产品化模型在不断演化,但产品化不需要等到最终那个模型完成— 每当模型迭代出来一个大的版本,都可以产品化。以 OpenAI 的产品化过程为例:[gf]2022[/gf]2020年,初代 GPT 3训练完成,开放 OpenAI API;[gf]2022[/gf]2021年,初代 Codex 训练完成,开放 Github Copilot;[gf]2022[/gf]2022年,GPT-3.5训练完成,以 dialog 数据 finetune 成 ChatGPT 然后发布。可以看到,在中间阶段的每一个重要版本,模型的能力都会增强,都存在产品化的机会。更加重要的是,按照模型演化进程产品化,可以在产品化的阶段适配市场。学习 OpenAI 的组织架构来推进模型演化本身,但产品化可以按照本土市场的特征来做。这种方式或许可以既学到 OpenAI 的先进经验,又避免水土不服的问题。
3人工智能显著超过人类的能力
到目前为止,我们讨论了要用模型演化的视角来分析模型,要用极限的思维讨论模型的演化历程。现阶段马上可以加强的点包括了输入框的长度,更大的模型和数据,多模态数据和模型的专业化程度。现在让我们再把视野放得更长期些,思考在更大的时间和空间中,模型如何进一步地往极限推。我们讨论:[gf]2022[/gf]并行感知:一个人类研究员一次顺序地读四五篇论文已经是极限,但模型输入框变长之后,可以在极短的时间内并行阅读一百篇论文。这意味着,模型对外部信息的感知能力远超人类一个数量级;[gf]2022[/gf]记忆遗传:人类的演化过程中,子代只继承父代的基因,但不继承父代的记忆,这意味着每一次生殖都需要重启一次;在模型的演化过程中,子代可以继承父代的记忆,并且这个继承的程度可控:我们可以设置子代继承100%,50%,20%的记忆,或清空记忆,这意味着父代的经验和技能可以不断累积;[gf]2022[/gf]加速时间:人类相互交流的速率是受到人类说话的物理速度限制的,而模型相互交流的速率可以远快于人类,这意味着模型可以通过相互交流来解决人类数据随时间线性增长的问题;人类演化的过程受到物理时间的限制,模型的演化可以比人类的物理时间快上几个数量级,这意味着模型的进步速度可以远快于人类;[gf]2022[/gf]无限生命:一个人的生命有限,百年之后终归尘土,但模型的权重只要不丢失,就可以不断地演化。从这些角度来说,人工智能超过人类并不是一件难以想象的事情。这就引发了下一个问题:如何驾驭远超人类的强人工智能?这个问题,是 Alignment 这项技术真正想要解决的问题。
4
Alignment 对齐
当前阶段,模型的能力,除了 AlphaGo 在围棋上超过了最强人类之外,其他方面的 AI 并没有超过最强的人类(但 ChatGPT 在文科上或许已经超过了95%的人类,且它还在继续增长)。在模型还没超过人类的时候,Alignment 的任务是让模型符合人类的价值观和期望;但当模型继续演化到超过人类之后,Alignment 的任务就变成了寻找驾驭远超人类的智能体的方法。
4.1 Alignment 作为驾驭远超人类的智能体的方法
一个显然的问题是,当 AI 超过人类之后,还可以通过人类反馈让 ta 更强/ 更受约束吗?是不是这个时候就已经管不了了?不一定,即使模型远超人类,我们依然又可能驾驭 ta,这里的一个例子是运动员和教练之间的关系:金牌运动员在 ta 的方向上已经是最强的人类了,但这并不意味着教练就不能训练 ta。相反,即使教练不如运动员,ta 依然可以通过各种反馈机制让运动员变得更强且更有纪律。类似地,人类和强人工智能的关系,在 AI 发展的中后期,可能会变成运动员和教练之间的关系。这个时候,人类需要的能力并不是完成一个目标,而是设定一个好的目标,然后衡量机器是否足够好地完成了这个目标,并给出改进意见。这个方向的研究还非常初步,这个新学科的名字,叫 Scalable Oversight。
4.2 Alignment 与组织架构
在通往强人工智能的路上,不只是需要人类与 AI 对齐,人类与人类,也需要高度对齐。从组织架构的角度,alignment 涉及到:[gf]2022[/gf] Pretraining 团队与 instruction tuning – alignment 团队之间的对齐:这两者应该是一个相互迭代的过程,pretraining 团队不断地 scale 基础模型,alignment 团队为基础模型做 instruction tuning,同时用得到的结果反向指导 pretraning 团队的方向。[gf]2022[/gf] Pretraining / Alignment 团队与 Scaling / Data 团队的对齐:scaling 负责为 pretraining / alignment 做好基础设施,data 做好高质量数据与人类反馈数据。[gf]2022[/gf]创业公司与 VC 的对齐:AGI 是一个困难的事情,需要长期投入,这需要各个方面的人都有足够的耐心和足够高的视野。烧一趟热钱后催产品化然后占满市场的逻辑在大模型时代应该已经不复存在了。大模型的游戏要求 ta 的玩家们有足够高的视野与格局,模型的演化会让有足够耐心的,踏实做事人们在长期得到丰厚的回报,也会让只看短期刻舟求剑的人们一次又一次被降维打击。
5结语
在2017年,我刚刚入行 NLP 的时候,花了很大的力气做可控生成这件事情。那个时候所谓的 text style transfer 最多就是把句子情感分类改一改,把 good 改成 bad 就算是完成了 transfer。2018年我花了大量的时间研究如何让模型从句子结构的角度修改句子的风格,一度误认为风格转换是几乎不可能完成的事情。而今 ChatGPT 做风格转换简直信手拈来。那些曾经看似不可能完成的任务,曾经极其困难的事情,今天大语言模型非常轻松地就能完成。在2022年一整年,我追踪了从 GPT-3到 GPT-3.5的全部版本迭代,亲眼看到它一步步地从弱到强不断演化。这个演化速度并没有变慢,反而正在加快。那些原先看来科幻的事情,现在已经成为现实。谁会知道未来会怎样呢?
彼黍离离,彼稷之苗。行迈靡靡,中心摇摇。彼黍离离,彼稷之穗。行迈靡靡,中心如醉。———《诗经黍离》
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!