文章主题:ChatGPT, MOSS, AI内容生成
做ChatGPT好比踢足球,踢足球都是盘带、射门,但是要做到梅西那么好也不容易。
常识在人工智能领域,一个基础常识是,算法训练是一件没有办法弯道超车的事情。自2018年推出第一代生成式预训练模型GPT-1起,OpenAI用了近6年的时间沉淀出了当前的大语言模型。图源/hellorf
🌟人工智能时代的革新力量:ChatGPT引领的革命性内容生成技术正在悄然改变我们的工作和生活方式!💡它不仅仅局限于文案宣传和智能营销,聪明的它还能深度涉足风控领域,为安全保驾护航。💻代码编写也不再是难题,ChatGPT让创新触手可及。国内创新热潮中,无数团队和企业争相探索其潜力,但别忘了,ChatGPT背后的技术并非简单的标签。它像一个全能的工具箱,每一块砖都蕴含着复杂且前沿的算法。🔍深入研究,我们才能真正理解它的强大之处,而非一窥究竟就妄下定论。ChatGPT确实开启了新纪元,但它带来的挑战和机遇同样值得深思。让我们一起期待并拥抱这个智能革命,让科技为我们的生活带来更多可能性!🌐
“踢足球都是盘带、射门,但是要做到梅西那么好也不容易。”3月5日,中国科技部部长王志刚用踢足球比喻ChatGPT,直言“从这一点看,ChatGPT在技术进步上,特别是保证算法的实时性与算法质量的有效性上,非常难”。
复旦MOSS团队:路还很长
🔥【复旦MOSS】ChatGPT新秀!🔥邱锡鹏团队引领科技潮流,日前揭秘超能模型MOSS,一登场就掀起热议风暴!🌟2月20日,MOSS甫一亮相,就被无数科研与创新爱好者争相试用和深度探讨,瞬间成为行业焦点。🔍技术突破,打破NLP界限,让大众对AI的潜力有了全新认识。💼合作意向如潮水般涌来,投资邀约纷至沓来,学术界与商业界的交汇,预示着一个新时代的到来。💡欲了解更多,敬请关注后续动态,让我们共同见证这一科技奇迹的成长!🌟
🌟【中文生成式预训练领域的领航者】🌟邱锡鹏团队早在2021年的探索之旅中,就已经开启了一扇创新之门,他们独到地构建了相关模型,并慷慨分享,每月平均下载量高达数万次,展现了其在该领域内的显著影响力。🚀他们的研究视野不断拓展,提出了革命性的“语言模型即服务”理念,将基础模型视为语言服务的核心支柱。到了2022年,团队更是聚焦于训练巨型语言模型的探索,致力于打造能够理解和响应人类指令、具备流畅对话能力的语言巨擘。📚🔍这一系列里程碑式的进展,不仅展示了他们对技术的执着追求,也无疑为未来的AI语言应用开辟了新的道路。他们的每一次突破,都可能成为行业内的新标杆。🏆
🎉邱锡鹏团队翘首期盼的日子终于到来!就在今年农历腊月二十八,一个特别的时刻让所有人屏息——项目主开发者孙天祥博士,在日常测试中轻轻一试,MOSS这位智能小能手竟以精准的英文给出了回应,仿佛一位虽不会说中文,却深深理解其意的奇妙伙伴。那一刻,尽管MOSS还处在初级阶段,中文语料仅占全部训练数据的0.1%,但这无疑是一次里程碑式的突破。🏆
🎉惊叹于MOSS的力量!无需事先教授机器翻译,这款技术的卓越之处让邱锡鹏整晚难以入眠。他将MOSS比喻为一个未来智能的雏形,尽管还不能熟练应对诗词创作或复杂问题,但它展现出成为通用人工智能(AGI)的可能性,仿佛一切难题都迎刃而解。它的潜能让想象无限扩展,引领我们探索更多可能!🌍
🌟了解ChatGPT与Siri的区别吗?🤔其实,它们就像是现代科技中的智能手机和基础型手机。早期的聊天应用还处于AI初级阶段,简单地服务于对话,就像功能手机仅限通话;而现今的大型模型如ChatGPT和MOSS,则具备更强的通用性,能做多任务,就像智能手机不仅打电话,还能处理各种复杂操作。🚀无论是信息检索、创作辅助还是日常交互,它们都展现出了前所未有的潜力与可能性。
邱锡鹏也坦言,与ChatGPT相比,MOSS的最大差异还是参数规模。“ChatGPT的参数量多达1750亿个,而MOSS的参数量比其小一个数量级,大约是前者的1/10左右。”邱锡鹏团队认为,这个规模在财力物力承受范围之内,也使模型具备一定的智能。实验结果证实了团队的猜想,MOSS模型可以非常顺利地与人类进行聊天互动。邱锡鹏介绍,MOSS的特点是小规模,比较容易适应个性化模型,可以赋予更多专业化能力,利于企业内部私有部署,经过一些数据微调就可以转化为生产力。
2月20日,MOSS上线当晚,网站一度瘫痪。邱锡鹏团队在官方回应中表示,MOSS还是一个不太成熟的模型,计算资源不足以支撑庞大的访问量,距离ChatGPT还有很长的路要走。在MOSS完成初步验证之后,团队会将经验、代码、模型参数开源出来供大家参考。中国版ChatGPT的诞生还需要中国全体AI从业者的共同努力,更需要不断和人交互以提高能力。团队也将坚持对最前沿AI模型的不懈追求。
AI从业者:一天成本要3亿
在国内ChatGPT的追逐赛道上,除了作为重头戏的头部科技公司与专家研究团队,还有不少想要尝鲜ChatGPT的个人,但他们往往无法迈出第一步。
“若用ChatGPT的方法,以小冰框架当前支撑的对话交互量计算,每天成本将高达3亿元,一年成本超过1000亿元。”在来自大洋彼岸的这股科技潮最初传导至国内之时,小冰CEO李笛就为不少想要尝试做国内ChatGPT的人泼了一盆冷水。
马新几乎是国内最早接触到ChatGPT那批人。2022年11月30日,ChatGPT发布,5天内涌入100万用户。马新深受触动,开始考虑自己做类ChatGPT的可行性。
“我本身从事的是AI行业。ChatGPT拥有持续的上下文对话能力,同时支持文章写作、诗词生成、代码生成等。这让我很是惊讶。”马新知道,这对AI行业是颠覆性的,它不在于技术上的创新,而在于向大众展示了一个全新的使用技术的途径,那就是NLP任务(自然语言处理)中基于大型语言模型(LLM,LargeLanguage Model)演进出的GPT。马新认为,NLP任务(自然语言处理)的核心逻辑是“猜概率”。“现阶段所有的NLP任务,都不意味着机器真正理解这个世界,他只是在玩文字游戏,进行一次又一次的概率解谜,本质上和我们玩报纸上的填字游戏是一个逻辑。只是我们靠知识和智慧,AI靠概率计算。”这决定了如果没有大量资金支持,AI便无法进行足够的“语言预训练”。正如ChatGPT铺天盖地的宣传里总是离不开这样一句话:在拥有3000亿单词的语料基础上预训练出拥有1750亿参数的模型。“如果说3000亿单词是训练数据,那么1750亿参数就是沉淀下来的AI对这个世界的理解。”了解到训练步骤需要花费的资金后,马新彻底打消了试水ChatGPT的念头。“做中国版ChatGPT是百度、阿里这样的大厂才敢拥有的野心。而其它挂着ChatGPT概念的公司,几乎只能局限在很小的领域,资金不足以支撑语言训练是最大的问题。”
而在多位行业人士看来,要做中国ChatGPT,不光是“语言预训练”的问题。与OpenAI相比,国内大厂在算力和算法方面与之同样有差距。高性能GPU是人工智能的基石。去年英伟达高端GPU芯片对中国供应受限,有行业人士算了一笔账:想要训练与ChatGPT相匹敌的大模型,每年在显卡、CPU等设备方面投入的成本高达10亿美元。面对如此庞大的现金流需求,不少人预判,“微软、谷歌这样的硅谷大厂有这个能力,国内大厂有这一实力的也少”。
李笛认为,与其说中美两国在人工智能领域有巨大的“技术壁垒”,不如说有一定的“时间壁垒”。“时间壁垒”带来的则是算法方面的差距。一个基础常识是,算法训练是一件没有办法弯道超车的事情。自2018年推出第一代生成式预训练模型GPT-1起,OpenAI用了近6年的时间沉淀出了当前的大语言模型。“这6年的差距没办法用半年的时间实现超越,除非有天才少年用更加完善的算法框架实现降维打击。”
其实,不少AI从业人士同样认为,由于人工智能对算力、算法、时间的要求很大,其成本压力太高,因此,AI必须要找到一个明确具体的垂直场景。
与其临渊羡鱼,不如退而结网。对于许多国内公司而言,基于ChatGPT的场景赋能应用,或许是新一轮科技军备竞赛中的理性选择。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!