知乎回响:变革时代的思考与探讨
本科论文

知乎回响:变革时代的思考与探讨

这篇文章强调了知乎在变革中的重要作用和影响力。无论话题热度如何,知乎都能给出有深度的回答和讨论。而且,知乎的呈现方式也是全方位、多维度,满足不同用户的需求。
全球科技动态:华为AppGallery地位稳固,立讯精密业绩增长强劲,商汤集团半年度业绩亮眼
本科论文

全球科技动态:华为AppGallery地位稳固,立讯精密业绩增长强劲,商汤集团半年度业绩亮眼

华为AppGallery应用商店地位稳固,拥有640万注册开发者,月活跃用户达到5.8亿。立讯精密2023年上半年业绩亮眼,销售收入增长19.53%,净利润增长15.11%,预计前三季度盈利70.4亿-76.8亿。商汤集团上半年营收14.3亿元,同比增长1.3%,大模型及生成式AI相关收入增长670.4%。苹果分析师郭明錤预测,2023年iPhone出货量可达2.2亿-2.25亿部。三星电子、三星显示和三星SDI将招聘有工作经验的外籍研发人员。人工智能初创公司OpenAI推出ChatGPT企业版,更高级别安全和隐私,以及无限高速GPT-4访问等功能。亚马逊CEO警告员工返回办公室工作。X公司CEO请求马斯克推迟推特更名的决定,但马斯克坚持原计划。谷歌计划将新的地图数据API授权给一系列公司,创造最高1亿美元营收。新西兰即将立法征收数字服务税,到2025年才能实施。SK海力士在芯片领域崛起,成为NvidiaH100芯片中HBM的主要供应商。
AI语言模型:ChatGPT的崛起与影响
期刊论文

AI语言模型:ChatGPT的崛起与影响

这篇文章汇总了成生辉在不同领域的作品,展示了他在不同主题上的创作才华。其中包含了他自己的摄影作品、引用自 ChatGPT 的文本以及 Pixabay 上的图片,这些作品都体现了成生辉的创造力和多样性。
ChatGPT:通用人工智能的AB策略与未来价值
未分类

ChatGPT:通用人工智能的AB策略与未来价值

文章主要介绍了ChatGPT的火爆程度以及其背后的OpenAI公司。张斯成表示,ChatGPT之所以火爆,是因为其简洁的交互界面、高度的话题性、拟人化的表现形式以及OpenAI选择在今年推出ChatGPT的明智决策。然而,他也指出,ChatGPT还存在一些问题,如无法回答所有问题、访问量增加时易梗机等。同时,他也探讨了AI发展的一些趋势和机遇。
思辨教育:人工智能时代的挑战与机遇
本科论文

思辨教育:人工智能时代的挑战与机遇

在平和学校的儿童哲学课上,孩子们就人工智能 topic展开了热烈的讨论。在这节课上,哲学老师颜志豪引导孩子们思考自动驾驶汽车刹车失灵的情况下,应该选择救谁。孩子们纷纷发表自己的看法,认为人、外卖小哥和小狗都应该被救。这节课展示了平和学校融入“思辨素养”的课程设置,以及AI对教育的影响。与此同时,平和校园里的其他课堂也在进行一场关于AI与教育思辨的讨论。在第二届平和“不同”论坛上,众多专家和教师齐聚一堂,共同探讨AI时代下的教育挑战与发展。
PlantingSeeds:TheFutureof5GandAIinChina
AI助手

PlantingSeeds:TheFutureof5GandAIinChina

中国工信部主办的第31中国国际信息通信展览会在北京开幕,展示信息通信业最新成果。工信部部长金壮龙表示,中国信息通信业取得跨越式发展,推动实体经济数字化、网络化、智能化转型升级。未来,数字经济将成为关键力量,重组全球要素资源、重塑全球经济结构、改变全球竞争格局。金壮龙提出四点期望:优化基础设施布局、加速信息技术赋能、加快新兴产业培育、深化全球开放合作。5G已覆盖全国所有县城城区,预计2024年后占比将超过50%,进入投资回报期,需将5G能力向5G-A提升,使用户能充分体验5G优势。中国新能源汽车出口主要面临市场波动问题,需做好本土化适应改进,同时加强海外充电设施和售后维护,提升用车满意度。
国产ChatGPT「套壳」的秘密,现在被找到了
未分类

国产ChatGPT「套壳」的秘密,现在被找到了

衡宇 发自 凹非寺量子位 | 公众号 QbitAI “科大讯飞套壳ChatGPT!”“百度文心一言套皮Stable Diffusion!”“商汤大模型实则抄袭!”…… 外界对国产大模型产生质疑已经不是一次两次了。 业内人士对这个现象的解释是,高质量的中文数据集实在紧缺,训模型时只能让采买的外文标注数据集“当外援”。训练所用的数据集撞车,就会生成相似结果,进而引发乌龙事件。 其余办法中,用现有大模型辅助生成训练数据容易数据清洗不到位,重复利用token会导致过拟合,仅训练稀疏大模型也不是长久之计。 业内渐渐形成共识: 通往AGI的道路,对数据数量和数据质量都将持续提出极高的要求。 时势所需,近2个月来,国内不少团队先后开源了中文数据集,除通用数据集外,针对编程、医疗等垂域也有专门的开源中文数据集发布。 高质量数据集虽有但少 大模型的新突破十分依赖高质量、丰富的数据集。 根据OpenAI 《Scaling Laws for Neural Language Models》提出大模型所遵循的伸缩法则(scaling law)可以看到,独立增加训练数据量,是可以让预训练模型效果变更好的。 这不是OpenAI的一家之言。 DeepMind也在Chinchilla模型论文中指出,之前的大模型多是训练不足的,还提出最优训练公式,已成为业界公认的标准。 △主流大模型,Chinchilla参数最少,但训练最充分 不过,用来训练的主流数据集以英文为主,如Common Crawl、BooksCorpus、WiKipedia、ROOT等,最流行的Common Crawl中文数据只占据4.8%。 中文数据集是什么情况? 公开数据集不是没有——这一点量子位从澜舟科技创始人兼CEO、当今NLP领域成就最高华人之一周明口中得到证实——如命名实体数据集MSRA-NER、Weibo-NER等,以及GitHub上可找到的CMRC2018、CMRC2019、ExpMRC2022等存在,但整体数量和英文数据集相比可谓九牛一毛。 并且,其中部分已经老旧,可能都不知道最新的NLP研究概念(新概念相关研究只以英文形式出现在arXiv上)。 中文高质量数据集虽有但少,使用起来比较麻烦,这就是所有做大模型的团队不得不面对的惨烈现状。此前的清华大学电子系系友论坛上,清华计算机系教授唐杰分享过,千亿模型ChatGLM-130B训练前数据准备时,就曾面临过清洗中文数据后,可用量不到2TB的情况。 解决中文世界缺乏高质量数据集迫在眉睫。 行之有效的解决方法之一,是直接用英文数据集训大模型。 在人类玩家打分的大模型匿名竞技场Chatbot Arena榜单中,GPT-3.5在非英文排行榜位居第二(第一是GPT-4)。要知道,96%的GPT-3.5训练数据都是英文,再刨去其他语种,用来训练的中文数据量少到可以用“千分之n”来计算。 国内top3高校某大模型相关团队在读博士透露,如果采用这种方法,不嫌麻烦的话,甚至可以给模型接一个翻译软件,把所有语言都转换成英语,然后把模型的输出转换为中文,再返回给用户。 然而这样喂养出的大模型始终是英文思维,当遇到成语改写、俗语理解、文章改写这类含有中文语言特色的内容,往往处理不佳,出现翻译错误或潜在文化的偏差。 还有个解决办法就是采集、清洗和标注中文语料,做新的中文高质量数据集,供给给大模型们。 开源数据集众人拾柴 察觉现况后,国内不少大模型团队决定走第二条路,着手利用私有数据库做数据集。 百度有内容生态数据,腾讯有公众号数据,知乎有问答数据,阿里有电商和物流数据。 积累的私有数据不一,就可能在特定场景和领域建立核心优势壁垒,将这些数据严格搜集、整理、筛选、清洗和标注,能保证训出模型的有效性和准确性。 而那些私有数据优势不那么明显大模型团队,开始全网爬数据(可以预见,爬虫数据量会非常大)。...