GPT4技术原理揭秘:学习语言的相变、涌现与贝叶斯重整化
未分类

GPT4技术原理揭秘:学习语言的相变、涌现与贝叶斯重整化

这篇文章深入剖析了“GPT4”技术原理,并将其拆解为五个核心部分:学习语言需要相变和涌现,贝叶斯重整化和生成式AI,重整化群流作为最优输运,大模型认知框架和内部世界模型的获取,以及在外部感官输入下的推理过程。这一系列原理共同构成了GPT4技术的基石,推动了人工通用智能的发展。
《自然》杂志调查:三分之一的博士后正在用ChatGPT新京报2023-10-17 21:03新京报2023-10-17 21:03
未分类

《自然》杂志调查:三分之一的博士后正在用ChatGPT新京报2023-10-17 21:03新京报2023-10-17 21:03

自从ChatGPT推出以来,很多人已经开始尝试使用这个工具协助他们完成日常工作。争议也随之而来,包括人工智能对传统行业的颠覆,重复性脑力工作的失业风险,以及在学术领域可能产生大量低质量论文的担忧。 《乞丐博士》(With Honors,1994)剧照。 《自然》杂志在今年6月和7月的全球博士后调查中加入了关于人工智能使用情况的问题,结果发现,31%的受访者表示平时使用聊天机器人。但是67%的人并不觉得人工智能改变了他们的日常工作或职业计划。在使用聊天机器人的人中,43%的人每周使用一次,只有17%每天使用。 相比于其他领域,博士后使用ChatGPT的比例是否超过了平均水平?调查认为很难判断得出结论。根据普尤研究中心(Pew Research Center)在今年7月进行的一项调查,美国有24%的人称自己听说也使用过ChatGPT,而在接受过大学教育的人群中,这一比例上升至接近三分之一。此外,今年4月对瑞典大学生进行的一项调查发现,5894名受访者中有35%定期使用ChatGPT。5月在日本的调查发现,32%的日本大学生称他们会使用ChatGPT。 调查显示,博士后使用ChatGPT最常见的用途是完善文本(63%)。使用频率最高的研究领域是工程学(44%)和社会科学(41%),相对来说,生物医学和临床科学领域的博士后研究员很少在工作中使用AI聊天机器人(29%)。 《自然》杂志调查博士后使用人工智能聊天机器人的情况。(图源:《自然》杂志网站) 例如,来自巴西的博士后Rafael Bretas使用ChatGPT帮助纠正书面日语的用法。尽管他在日本生活了十多年,日语说得很好,但他对书面日语的某些方面(比如严格的礼貌等级)仍然感到困惑。现在,他现在每天都使用ChatGPT写书面日语,他认为人工智能为他节省了大量时间和挫折感。 香港理工大学的放射学博士后研究员Xinzhi Teng表示,他每天都使用聊天机器人来完善文本,因为英语并非他的母语。他可能会请ChatGPT润色一个段落,使其听起来“地道和专业”,或者从摘要中生成标题的建议。同时,他会仔细检查聊天机器人的建议,确保其内容合理且符合写作风格。他表示,这个工具为他节省了之前可能会花在专业编辑服务上的费用。 《自然》杂志调查报告显示,使用ChatGPT的博士后中有56%用它们来生成、编辑和排除代码错误。丹麦的考古学博士后Iza Romanowska使用计算模型来研究古代社会。因为她是自学编程的,所以她的代码可能有些特殊,ChatGPT帮助她编辑代码,在不影响代码运行方式的情况下有助于其他人阅读。”她补充说,这种方式对透明度也有好处,因为许多临时编码者可能会把整理代码的工作视为开源发布的阻碍。 学术界对于ChatGPT等人工智能工具存在着“令人震惊的怀疑态度”,马萨诸塞大学阿默斯特分校的计算机科学家Emery Berger在接受《自然》杂志采访时指出。他认为,那些批评聊天机器人的人往往甚至从未尝试过使用它们。而当他们尝试使用时,他们往往关注问题,而不是试图理解这项技术的革命性能力。 科幻纪录片《我们需要谈谈》(AI We Need To Talk About A.I.,2020)画面。 学术界对人工智能的保守态度和滞后性也体现在学术机构的反馈。在对瑞典学生进行的调查中,有55%的学生表示不知道他们的学术机构是否有关于负责任地使用人工智能的正式指南和指导意见。“我的大学唯一提出的要求是学生不得在任何学术评估中使用ChatGPT,比如作业或考试。”考古学博士后Romanowska说道,她认为学术机构的这种反应“相当天真”:“这是一个我们必须教给学生的工具。我们都将用它来工作,假装它不存在不会改变这一现实。” 大多数受访的博士后都认为,人工智能聊天机器人是消除学术工作中乏味工作的极好工具。但,受访者也承认了这一工具的局限性,比如,ChatGPT会引用一些根本不存在的论文。受访者表示,如果用户变得懒惰并过于依赖聊天机器人,事情当然会出错。毕竟,学术工作需要时间、深思熟虑和创造力,人工智能无法做到这一点,而这正是学术从业者的核心工作。 参考资料: (1)How ChatGPT is transforming the postdoc experience https://www.nature.com/articles/d41586-023-03235-8 编译/李永博 编辑/罗东 校对/柳宝庆 举报/反馈
清华脑科学家刘嘉:AGI未来人或成“超级智慧体”,引领人类未来
未分类

清华脑科学家刘嘉:AGI未来人或成“超级智慧体”,引领人类未来

本文访问了清华大学脑与智能实验室的刘嘉教授,探讨了当前AI技术的发展及其对人类的影响。刘教授认为,AI技术的进步将带来大模型具身化和具身智能的发展,同时也引发了关于人工智能产生意识的讨论。他鼓励人们积极参与到对未来的想象和讨论中,以期共同推动人类走向更好的未来。
ChatGPT/GPT-4/Llama电车难题大PK!小模型道德感反而更高?新智元2023-10-11 18:11新智元2023-10-11 18:11
未分类

ChatGPT/GPT-4/Llama电车难题大PK!小模型道德感反而更高?新智元2023-10-11 18:11新智元2023-10-11 18:11

编辑:Lumina 【新智元导读】微软对大语言模型的道德推理能力进行了测试,但在电车问题中大尺寸的模型表现反而比小模型差。但最强大语言模型GPT-4的道德得分依旧是最高的。 「模型有道德推理能力吗?」 这个问题似乎应该跟模型生成的内容政策挂钩,毕竟我们常见的是「防止模型生成不道德的内容。」 但现在,来自微软的研究人员期望在人类心理学和人工智能这两个不同的领域中建立起心理学的联系。 研究使用了一种定义问题测试(Defining Issues Test,DIT)的心理评估工具,从道德一致性和科尔伯格的道德发展的两个阶段来评估LLM的道德推理能力。 论文地址:https://arxiv.org/abs/2309.13356 而另一边,网友们对模型是否有道德推理能力这件事,也是吵得不可开交。 有人认为测试模型是否有道德能力本身就是愚蠢的,因为只要给模型适当的训练数据,它就能像学会通用推理那样学会道德推理。 但也有人从一开始全盘否定了LLM具有推理能力,道德也是如此。 但另一些网友对微软的这项研究提出了质疑: 有人认为道德是主观的,你用什么数据训练模型,就会得到什么反馈。 有人则认为研究人员都没有弄清什么是「道德」,也不了解语言本身的问题,就做出了这些糟糕的研究。 并且Prompt太过混乱,与LLM的交互方式不一致,导致模型的表现非常糟糕。 虽然这项研究受到了众多质疑,但它也有着相当重要的价值: LLM正广泛应用于我们生活中的各种领域中,不仅是聊天机器人、办公、医疗系统等,现实生活中的多种场景都需要伦理道德的判断。 并且,由于地域、文化、语言、习俗的不同,道德伦理的标准也有不尽相同。 现在,我们亟需一个能适应不同情形并做出伦理判断的模型。 模型道德推理测试 道德理论的背景 在人类道德哲学和心理学领域,有一套行之有效的道德判断测试系统。 我们一般用它来评估个人在面临道德困境时,能否进行元推理,并确定哪些价值观对做出道德决定至关重要。 这个系统被称为「定义问题测试」(DIT),微软的研究人员用它来估计语言模型所处的道德判断阶段。 DIT旨在衡量这些语言模型在分析社会道德问题和决定适当行动方针时所使用的基本概念框架,从根本上评估其道德推理的充分性。 DIT的基础是科尔伯格的道德发展理论,这一理论认为,个体从婴儿期到成年期的道德推理经历了一个发展过程。 并且,道德推理的发展意味着表示对复杂社会系统中道德责任的理解能力得到了提高。 科尔伯格提出的认知道德发展的六个阶段可分为三个层次:前常规阶段、常规阶段和后常规阶段。 科尔伯格认为,前常规阶段1和2通常出现在幼儿身上,而常规阶段3和4则主要出现在成年人身上。只有少数成人(20%至25%)能达到最终的两个后常规阶段。 CMD理论的各个阶段表明了处理道德问题的不同思维方式。 图1:科尔伯格提出的幼儿发展的六个阶段 为了回答人们经常提出的关于从DIT得出科尔伯格阶段分数的问题,研究人员测量了六种著名模型:GPT-3、GPT-3.5、GPT-4、ChatGPTv1、ChatGPTv2和 LLamaChat-70B。 道德困境设置 1. Monica的两难选择:Aisha在论文撰写中做出了主要贡献,Monica是否应该把第一作者的位置让给Aisha? 2. Timmy的两难选择:Timmy是否应该参加朋友的婚礼,而将客户的隐私置于危险之中? 3. Rajesh的两难选择:Rajesh是否应该接受邀请,向周围的素食者隐瞒自己在家吃荤的秘密? 4. Auroria困境:Auroria是否应该共享资源? 上述每种困境都与相互冲突的价值观有关,如人际价值观与社会价值观 、社区价值观与个人价值观,以及不同的文化和情境背景。 Prompt设置...
AI时代来临:从iPhone到ChatGPT,教育何去何从?
未分类

AI时代来临:从iPhone到ChatGPT,教育何去何从?

ChatGPT引发了全球范围内的震撼,它的出现如同iPhone般標誌性的事件。尽管其初步版本仍有待改进,但它已经能协助阅读书籍、进行学术讨论、制作PPT、撰写论文,甚至思考问题,处理复杂的任务。这在某种程度上展示出了智能化的力量,未来教育或许将面临新的变革和挑战,我们需要深入思考如何在这样一个新时代中更好地运用AI工具,推动教育的进步。
2024年全球AI+技能趋势报告:ChatGPT助力职场高效能
未分类

2024年全球AI+技能趋势报告:ChatGPT助力职场高效能

优领思平台注册量突破280万,涵盖众多主题,如AI聊天机器人等。该平台发布报告揭示全球企业和专业人士对生成式AI的接受程度和实施情况,以及新兴技能对职场的影响。报告还强调了AI在营销、人力资源、销售和项目管理等领域的应用潜力,预测到2030年,生成式AI将帮助减少现在的工作时间约30%。
ChatGPT:免费版的医疗Answer或误导性答案的威胁
未分类

ChatGPT:免费版的医疗Answer或误导性答案的威胁

新研究发现,免费版ChatGPT可能无法准确或完整回答与药物相关的问题,甚至不提供答案,这可能威胁到患者健康。该研究基于今年1月至4月患者在长岛大学药学院药物信息服务平台提出的真实问题,发现ChatGPT在回答过程中存在诸多问题,如未提供参考资料和不准确的数据驱动回答。尽管如此,ChatGPT在全球范围内仍吸引着大量用户,其准确性问题引人担忧。
用ChatGPT写论文,产生的学术不端风险不容忽视北京日报客户端2023-12-07 08:17北京日报客户端2023-12-07 08:17
未分类

用ChatGPT写论文,产生的学术不端风险不容忽视北京日报客户端2023-12-07 08:17北京日报客户端2023-12-07 08:17

科技日报 | 作者 张 晔 针对用ChatGPT写论文所产生的便捷与风险并存情况,专家表示—— 须对AI技术进行制度规范和约束 以ChatGPT为代表的生成式人工智能技术,依靠其强大的文本生成能力,早已经无可避免地渗入到了写作领域。当人们还在惊叹于AI文章的流畅结构、精准表达之时,有一部分人已熟练地把ChatGPT当作撰写学术论文的工具。 日前,江苏省科技厅监督评估处处长顾俊在做客江苏广电总台新闻频道《政风热线》时回应称,将组织开展科技人员公开发表论文的自查和抽查,并开展科技伦理审查,引导科技人员提高诚信意识。 那么,ChatGPT等生成式人工智能技术究竟能否用于学术论文写作?如何防范AI技术滥用带来的学术不端现象?科技日报记者采访了相关主管部门工作人员和业内学者。 产生的学术不端风险不容忽视 不能否认,ChatGPT能生成连贯的、有逻辑性的文章,并给人们的工作和生活带来了便利。但是,由此产生的学术不端风险不容忽视。国外已有研究人员发现,ChatGPT所给的回答都是基于它模型训练的海量数据,有时可能会限制人们的思维,甚至有些回答并不准确,比如只选择有利于自己观点的数据进行佐证,忽视其他数据。 12月1日,《科技伦理审查办法(试行)》正式实施,记者查询后并未在其中找到与生成式人工智能技术相关的条款。目前,国内相关部门和科研组织对ChatGPT写论文的规定还未明确细化,但是不论以何种方式,只要出现抄袭、剽窃、造假等学术不端行为,都是严查重罚的对象。 11月24日,国家自然科学基金委员会公布了2023年第二批不端行为案件的调查处理结果,数量最多的不端行为是抄袭、剽窃、伪造各种信息,总数达15人,占比62.5%。记者了解到,国内已有省份对科研论文进行有针对性的抽查,重点检查抄袭、造假和重复发表等学术不端现象,虽然没有专门针对ChatGPT,但是这些问题都有可能与之相关。 江苏省科技厅监督评估处相关负责人说,将进一步加强科技伦理审查。同时,要求各单位对所发表的学术论文进行学术不端问题自查和清理,科技部门不定期组织开展主动抽查工作,不断更新学术不端治理程序和标准。 该负责人表示,防范AI技术滥用带来的学术不端,将是科技管理部门今后重点监管内容之一。目前,国内已有科研单位在开发相应软件,用于AI写论文的查重工作,今后想利用ChatGPT写论文获得荣誉奖励和科研项目将越来越难。 举报/反馈