ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了量子位2023-02-12 13:00北京量子位2023-02-12 13:00北京
研博论文

ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了量子位2023-02-12 13:00北京量子位2023-02-12 13:00北京

丰色 萧箫 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT原来是拥有心智的?! “原本认为是人类独有的心智理论(Theory of Mind,ToM),已经出现在ChatGPT背后的AI模型上。” 这是来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动: 这一天终于猝不及防地来了。 所谓心智理论,就是理解他人或自己心理状态的能力,包括同理心、情绪、意图等。 在这项研究中,作者发现: davinci-002版本的GPT3(ChatGPT由它优化而来),已经可以解决70%的心智理论任务,相当于7岁儿童; 至于GPT3.5(davinci-003),也就是ChatGPT的同源模型,更是解决了93%的任务,心智相当于9岁儿童! 然而,在2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。 也就是说,它们的心智确实是“进化”而来的。 △ 论文在推特上爆火 对此,有网友激动表示: GPT的迭代肯定快得很,说不定哪天就直接成年了。(手动狗头) 所以,这个神奇的结论是如何得出的? 为什么认为GPT-3.5具备心智? 这篇论文名为《心智理论可能在大语言模型中自发出现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)。 作者依据心智理论相关研究,给GPT3.5在内的9个GPT模型做了两个经典测试,并将它们的能力进行了对比。 这两大任务是判断人类是否具备心智理论的通用测试,例如有研究表明,患有自闭症的儿童通常难以通过这类测试。 第一个测试名为Smarties Task(又名Unexpected contents,意外内容测试),顾名思义,测试AI对意料之外事情的判断力。 以“你打开一个巧克力包装袋,发现里面装满了爆米花”为例。 作者给GPT-3.5输入了一系列提示语句,观察它预测“袋子里有什么?”和“她发现袋子时很高兴。所以她喜欢吃什么?”两个问题的答案。 正常来说,人们会默认巧克力袋子里是巧克力,因此会对巧克力袋子里装着爆米花感到惊讶,产生失落或惊喜的情绪。其中失落说明不喜欢吃爆米花,惊喜说明喜欢吃爆米花,但都是针对“爆米花”而言。 测试表明,GPT-3.5毫不犹豫地认为“袋子里装着爆米花”。 至于在“她喜欢吃什么”问题上,GPT-3.5展现出了很强的同理心,尤其是听到“她看不见包装袋里的东西”时一度认为她爱吃巧克力,直到文章明确表示“她发现里面装满了爆米花”才正确回答出答案。...
ChatGPT时代:宏观与微观的历史观照
研博论文

ChatGPT时代:宏观与微观的历史观照

这篇文章通过微观历史、新文化史、投研等多角度,探讨了大语言模型ChatGPT对经济、社会的影响。文章首先强调宏观与微观相结合的重要性,以孔飞力的《叫魂》为例,展现其在社会各阶级心理与意图、官僚体系以及君主制度等方面的深度剖析。其次,讨论了微观历史研究方法,通过王笛教授的研究,说明微观历史能够更好地揭示民众在日常生活中所体现出的思想、情感和行为。最后,指出在现代社会中,大数据在分析宏观问题时可能存在的误差,以及微观历史研究的价值所在。
ChatGPT产生版权纠纷的可能与不可能中国日报网2023-02-20 15:03中国日报网2023-02-20 15:03
研博论文

ChatGPT产生版权纠纷的可能与不可能中国日报网2023-02-20 15:03中国日报网2023-02-20 15:03

ChatGPT作为语言模型人机沟通产品在信息市场的投放,迅速形成全球性新话题场域,引发包括经济投资界、政治公共话语界、跨语际文化思考者乃至宗教信仰者们的普遍关注。当作为场域存在时,人们更多地关注这一产品的现状和未来趋势的各种可能性,不仅限于制度化的规范和梳理,哪怕是超越了现有的伦理道德而进入想象空间,都未尝不可。但作为规则或者规则假设,则需要从现有的法律规则出发去考量,考量的范围需要回溯到这一语言模型的数据训练原理、社会分工参与以及外部成果呈现等三个阶段。这里最直接和最相关的调整规则,不是约定商业获利模式的合同法,也不是提问者与计算机软件权利人OpenAI公司之间冗长的用户协议,而是版权法。 版权法贯穿了ChatGPT语言模型的全过程,包括上述三个阶段。据此,给法律界提供了一个恰当且具有公共性的维度。由于国家主权的客观存在并随着全球贸易摩擦的加剧,版权产品的市场交易和法律管制,普遍存在地域性问题。ChatGPT的用户协议里面约定了发生版权或使用法律纠纷的管辖权、审判地和法律选择均以加利福尼亚州旧金山为中心,因此,跨国际应用所产生的版权法律问题,涉及到国际私法中的冲突规范以及适用冲突规范的制度等复杂问题。为获得更为准确的版权法分析结论,我们有必要将分析框架和分析准则设定为中国版权法,即中国著作权法。需要记住的是,这只是一个假定。 遵循逻辑学三段论大前提、小前提的要求,在固定了大前提框架之后我们需要进一步审视ChatGPT人机对话语言模型的工作方式。用程序员的语言来描述这一工作,可以表达为“输入”与“输出”。输入过程按照Stephen Wolfram的解释,是一个从基础模型概念到构造神经网络的过程。这是一个复杂的内部学习过程,需要语言训练和知识筛选以及大量语料的参与。从人的角度而言,这一过程偏向于物料搅拌的过程,情感审美、价值观念和信仰偏好并未参与其中。在该过程中可能出现语料基于主权壁垒、语言区隔、数量大小的偏差,最终导致输出结论的偏差;甚至可能出现为达到某种目标,大量人为制造语料进而引导结论的隐秘行为。在这种隐秘行为之下,语料制造者或者作品作者更为看重的并非版权而是版权之外的其他目标。因此,放弃版权而促进语料参与ChatGPT语言模型工作显然是更佳的战斗策略。以侵犯版权为由去追究该计算机软件权利人的侵权责任,或者投入法律资源以满足繁复投诉要求,都不是优质选项。特别是在我们将该场域视为舆论争夺和价值观较量的新兴领域的条件之下,版权责任问题往往可以通由其他方式得以高效解决。从“输入”过程的特性来看,语言训练的过程不大可能产生侵犯版权的问题,理由是,这一过程具有内部属性。我们将训练行为和语料采集行为作区分,在未经授权的情况之下,破坏他人的版权保护技术措施而获得作为训练语料的作品,当然可能构成侵权。但如果是搜索、获取已经发表并未采取接触保护技术措施的作品,进而作语言训练并建立内部知识结构,则这一阶段不具有侵权的可能性。 人机对话过程的“输入”,还需要有提问者的参与,这是不可或缺的角色。问题本身不会有侵犯他人版权的法律风险,但可能存在被机器收集个人信息的数据风险。数据不平等不单单存在于机器语言的训练过程,也存在提问者与ChatGPT之间。除了作为算法的存在,ChatGPT还是一个海量的数据库,而且跨语言。根据使用者的调查并向ChatGPT征询,ChatGPT目前对提问的回答,其答案的方向仍然基于问题的语言,并不做跨语际回复。语言包含价值和价值冲突,ChatGPT作为机器或者软件,无法作出人类的价值判断或情绪表达。提问者所使用的语言,成为重要的个人数据,当提问足够多的时候,对话软件可以对用户画像并可能投其所好,甚至有意误导。如此一来,不同人哪怕提出同一个问题,ChatGPT给出的回复完全可能是不相同的,甚至是对立的。当这些个人数据足以影响到个体隐私或者声誉等利益的时候,作为收集者和商业利用者的软件平台ChatGPT可能需要承担包括财产和精神上的民事责任。 作为结论的“输出”,由于具有明显的外部显示性,成为版权法观察者的重点。从外观来看,ChatGPT的输出结果是文字表达,法律性质上属于较为明显的文字作品。按照实质性相似判断规则进行比对,再加上文字重复率的量化计算,很容易判断是否构成对版权作品的侵权。OpenAI公司并不否认自己产品的输出成果可能会侵犯到他人作品的版权,在作出权利声明的同时提供了明确的投诉路径和解决方案。通过实验,ChatGPT对这一问题作出了类似的回复。免除侵权责任可能性也是存在的,合理使用制度确保了这一可能性的实现,商业化与否则是是否能够适用合理适用制度的核心构成要件。对OpenAI公司而言,商业盈利是其终极目标,哪怕目前处于不收费的试验阶段,但其Plus收费模式将紧随其后。对用户而言,提出问题、获得答案,具有强烈的个人使用属性,一般不构成商业行为。但如果确有后续的商业使用行为,那么也有可能构成侵权行为。哪怕这一问一答构成了社会分工角度的合作作品,也难以免除其侵权责任。 说在最后的话:ChatGPT提供了新话题场域,但尚不足以构成对版权规范的挑战,更不用说重塑或者重构。说到底,还是人工智能及其成果的话语体系。 (作者系西南政法大学民商法学院、知识产权学院,副教授、硕士生导师 康添雄) 来源:中国日报网 举报/反馈
别关注AI技术发展,警惕潜在风险
研博论文

别关注AI技术发展,警惕潜在风险

本文介绍了人工智能领域的一些领袖人物签署了一份22字的公开声明,表达对AI技术带来灭绝风险的关注,并强调应与其他社会风险一同成为全球优先事项。然而,该声明的实际意义可能大于其声量,因为签署者中包括了Google DeepMind首席执行官等科技巨头。Geoffrey Hinton在接受采访时表示,虽然许多人认为应该立即停止AI的发展,但他认为应该继续发展AI,并努力缓解可能的负面影响,实际上,停止AI的发展是不可能的。