文章主题:人工智能内容生成技术, ChatGPT, 自然语言处理, 语言模型
以ChatGPT为代表的人工智能内容生成技术能够为人们带来诸多实际应用。不仅限于文案宣传、智能营销、智能风控以及代码编写等方面,其功能远不止于此。近期,我国诸如雨后春笋般的各个团队与公司,纷纷尝试通过自身的方式去解答这一问题。然而,ChatGPT真的就是如此简单吗?
在足球比赛中,球员们主要通过盘带和射门来展现自己的技艺,然而,要达到梅西等顶级球员的水平,并非易事。同样地,在科技领域,尤其是人工智能领域,要实现像ChatGPT这样的先进技术,也需要克服许多挑战。3月5日,我国科技部部长王志刚在公开场合将ChatGPT比作踢足球,他坦诚地表示,从某种程度上来说,ChatGPT在技术进步方面,尤其是在确保算法的实时性和算法质量有效性方面,所面临的难度非常大。
最近,复旦大学计算机科学技术学院的邱锡鹏团队成功研发出了类ChatGPT模型MOSS。消息公布后,这款模型迅速引起了广泛关注,甚至在一经推出就产生了大量的内测请求、采访、投资以及合作邀请。这主要是因为,随着ChatGPT的热度不断攀升,公众对于这项原本仅限于NLP(自然语言处理)领域的创新技术产生了极大的兴趣和热情。
邱锡鹏团队自2021年起便已开始涉足中文生成式预训练领域的研究,成功开发出相关模型并以开源形式供大众下载,平均每月都吸引过上万次的下载。随着研究的不断深化,团队逐渐提出了“语言模型即服务”这一创新理念,将基础语言模型视为提供语言服务的基石。到了2022年,邱锡鹏团队进一步加大了对训练大型语言模型的投入。经过半年的精心研究,团队成功地让大型语言模型能够理解人类指令并具备了对话能力。
在今年春节前的腊月二十八,对于邱锡鹏团队而言,是一个令人振奋的日子。他们的项目主开发者、计算机科学技术学院的博士研究生孙天祥,在进行日常测试时输入了一个中文问题。然而,令人惊讶的是,MOSS竟然以英文作出了准确的回答,仿佛它不仅会说流利的中文,而且还能听懂中文。值得一提的是,当时的MOSS版本还处于初级阶段,其训练数据中中文语料的比例不到0.1%,这无疑为它的表现提供了极大的空间。
非常有趣的是,当我们还没有向它传授机器翻译技巧时,MOSS所展现出的能力却让它当晚兴奋得无法入眠。邱锡鹏将MOSS比喻为一个“聪明的小孩”,尽管目前他还不太擅长写诗、解题或处理许多具体事务,但他已经展示出了具备通用人工智能(AGI)大框架的潜力。这使得他对于MOSS的未来充满期待,认为它可以轻松掌握那些曾经看似遥不可及的任务,一旦理解了其中的要义,就能迅速掌握。
在许多人眼中,ChatGPT、MOSS等大型语言模型与我们的日常语音助手小爱同学、Siri之间似乎没有太大的差别。然而,事实真的如此吗?邱锡鹏博士为了更好地阐述这个问题,他不禁比喻道:“大型语言模型与传统聊天系统之间的关系,就如同智能手机与功能手机之间的差异。过去的聊天机器人属于弱人工智能领域,它们的主要功能就是进行聊天,就如同功能手机仅仅具备打电话的功能。然而,如今的大型语言模型,例如ChatGPT、MOSS,已经能够完成许多任务,聊天仅是其众多功能中的一个。这就好像智能手机不仅可以用于打电话,还可以连接互联网、拍摄照片、播放音乐等多种功能。”
邱锡鹏公开表示,相较于ChatGPT,MOSS在参数规模上具有明显的优势。”ChatGPT的参数量达到了惊人的1750亿个,而MOSS的参数量则相对较小,约为ChatGPT的十分之一。”然而,邱锡鹏及其团队却认为,这种规模在财务和人力可承受范围内,同时也赋予了模型一定的智能性。实验数据显示,MOSS模型能够非常流畅地进行人机交互。邱锡鹏详细解释道,MOSS的一个显著特性在于其小规模,这使得它更容易适应个性化的模型,并赋予其更多的专业能力。因此,MOSS非常适合在企业内部进行私有部署,只需要经过适当的数据微调,便可将其转化为实际的生产力。
2月20日,MOSS上线当晚,网站一度瘫痪。邱锡鹏团队在官方回应中表示,MOSS还是一个不太成熟的模型,计算资源不足以支撑庞大的访问量,距离ChatGPT还有很长的路要走。在MOSS完成初步验证之后,团队会将经验、代码、模型参数开源出来供大家参考。中国版ChatGPT的诞生还需要中国全体AI从业者的共同努力,更需要不断和人交互以提高能力。团队也将坚持对最前沿AI模型的不懈追求。
AI从业者:一天成本要3亿
在国内ChatGPT的追逐赛道上,除了作为重头戏的头部科技公司与专家研究团队,还有不少想要尝鲜ChatGPT的个人,但他们往往无法迈出第一步。
“若用ChatGPT的方法,以小冰框架当前支撑的对话交互量计算,每天成本将高达3亿元,一年成本超过1000亿元。” 在来自大洋彼岸的这股科技潮最初传导至国内之时,小冰CEO李笛就为不少想要尝试做国内ChatGPT的人泼了一盆冷水。
马新几乎是国内最早接触到ChatGPT那批人。2022年11月30日,ChatGPT发布,5天内涌入100万用户。马新深受触动,开始考虑自己做类ChatGPT的可行性。
“我本身从事的是AI行业。ChatGPT拥有持续的上下文对话能力,同时支持文章写作、诗词生成、代码生成等。这让我很是惊讶。”马新知道,这对AI行业是颠覆性的,它不在于技术上的创新,而在于向大众展示了一个全新的使用技术的途径,那就是NLP任务(自然语言处理)中基于大型语言模型(LLM,Large Language Model)演进出的GPT。马新认为,NLP任务(自然语言处理)的核心逻辑是 “猜概率”。“现阶段所有的NLP任务,都不意味着机器真正理解这个世界,他只是在玩文字游戏,进行一次又一次的概率解谜,本质上和我们玩报纸上的填字游戏是一个逻辑。只是我们靠知识和智慧,AI靠概率计算。”这决定了如果没有大量资金支持,AI便无法进行足够的“语言预训练”。正如ChatGPT铺天盖地的宣传里总是离不开这样一句话:在拥有3000亿单词的语料基础上预训练出拥有1750亿参数的模型。“如果说3000亿单词是训练数据,那么1750亿参数就是沉淀下来的AI对这个世界的理解。”了解到训练步骤需要花费的资金后,马新彻底打消了试水ChatGPT的念头。“做中国版ChatGPT是百度、阿里这样的大厂才敢拥有的野心。而其它挂着ChatGPT概念的公司,几乎只能局限在很小的领域,资金不足以支撑语言训练是最大的问题。”
而在多位行业人士看来,要做中国ChatGPT,不光是“语言预训练”的问题。与OpenAI相比,国内大厂在算力和算法方面与之同样有差距。高性能GPU是人工智能的基石。去年英伟达高端GPU芯片对中国供应受限,有行业人士算了一笔账:想要训练与ChatGPT相匹敌的大模型,每年在显卡、CPU等设备方面投入的成本高达10亿美元。面对如此庞大的现金流需求,不少人预判,“微软、谷歌这样的硅谷大厂有这个能力,国内大厂有这一实力的也少”。
李笛认为,与其说中美两国在人工智能领域有巨大的“技术壁垒”,不如说有一定的“时间壁垒”。“时间壁垒”带来的则是算法方面的差距。一个基础常识是,算法训练是一件没有办法弯道超车的事情。自2018年推出第一代生成式预训练模型GPT-1起,OpenAI用了近6年的时间沉淀出了当前的大语言模型。“这6年的差距没办法用半年的时间实现超越,除非有天才少年用更加完善的算法框架实现降维打击。”
其实,不少AI从业人士同样认为,由于人工智能对算力、算法、时间的要求很大,其成本压力太高,因此,AI必须要找到一个明确具体的垂直场景。
与其临渊羡鱼,不如退而结网。对于许多国内公司而言,基于ChatGPT的场景赋能应用,或许是新一轮科技军备竞赛中的理性选择。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!