ChatGPT:人工智能革命性的聊天机器人
研博论文

ChatGPT:人工智能革命性的聊天机器人

文章主要报道了记者对我国信通院云计算与大数据研究所所长何宝宏的专访,他就ChatGPT的智能化程度、突破性进步对人类的意义、AI的突破性进步对人类意味着什么、中国是否会掉队等问题进行了回答。何宝宏表示,ChatGPT的智能化程度有显著提升,其文本交互能力接近于人类水平,并具备强交互、强理解和强生成三大能力。ChatGPT的出现将推动AI产业迎来拐点,进一步带动生产力变革,但同时也带来诸多风险挑战。对于是否担心ChatGPT作恶的问题,何宝宏认为,技术突破性的进展会带来产品与应用的变革,而人类始终有一把“钥匙”可以把技术可能带来的伤害“锁上”。
ChatGPT产生版权纠纷的可能与不可能中国日报网2023-02-20 15:03中国日报网2023-02-20 15:03
研博论文

ChatGPT产生版权纠纷的可能与不可能中国日报网2023-02-20 15:03中国日报网2023-02-20 15:03

ChatGPT作为语言模型人机沟通产品在信息市场的投放,迅速形成全球性新话题场域,引发包括经济投资界、政治公共话语界、跨语际文化思考者乃至宗教信仰者们的普遍关注。当作为场域存在时,人们更多地关注这一产品的现状和未来趋势的各种可能性,不仅限于制度化的规范和梳理,哪怕是超越了现有的伦理道德而进入想象空间,都未尝不可。但作为规则或者规则假设,则需要从现有的法律规则出发去考量,考量的范围需要回溯到这一语言模型的数据训练原理、社会分工参与以及外部成果呈现等三个阶段。这里最直接和最相关的调整规则,不是约定商业获利模式的合同法,也不是提问者与计算机软件权利人OpenAI公司之间冗长的用户协议,而是版权法。 版权法贯穿了ChatGPT语言模型的全过程,包括上述三个阶段。据此,给法律界提供了一个恰当且具有公共性的维度。由于国家主权的客观存在并随着全球贸易摩擦的加剧,版权产品的市场交易和法律管制,普遍存在地域性问题。ChatGPT的用户协议里面约定了发生版权或使用法律纠纷的管辖权、审判地和法律选择均以加利福尼亚州旧金山为中心,因此,跨国际应用所产生的版权法律问题,涉及到国际私法中的冲突规范以及适用冲突规范的制度等复杂问题。为获得更为准确的版权法分析结论,我们有必要将分析框架和分析准则设定为中国版权法,即中国著作权法。需要记住的是,这只是一个假定。 遵循逻辑学三段论大前提、小前提的要求,在固定了大前提框架之后我们需要进一步审视ChatGPT人机对话语言模型的工作方式。用程序员的语言来描述这一工作,可以表达为“输入”与“输出”。输入过程按照Stephen Wolfram的解释,是一个从基础模型概念到构造神经网络的过程。这是一个复杂的内部学习过程,需要语言训练和知识筛选以及大量语料的参与。从人的角度而言,这一过程偏向于物料搅拌的过程,情感审美、价值观念和信仰偏好并未参与其中。在该过程中可能出现语料基于主权壁垒、语言区隔、数量大小的偏差,最终导致输出结论的偏差;甚至可能出现为达到某种目标,大量人为制造语料进而引导结论的隐秘行为。在这种隐秘行为之下,语料制造者或者作品作者更为看重的并非版权而是版权之外的其他目标。因此,放弃版权而促进语料参与ChatGPT语言模型工作显然是更佳的战斗策略。以侵犯版权为由去追究该计算机软件权利人的侵权责任,或者投入法律资源以满足繁复投诉要求,都不是优质选项。特别是在我们将该场域视为舆论争夺和价值观较量的新兴领域的条件之下,版权责任问题往往可以通由其他方式得以高效解决。从“输入”过程的特性来看,语言训练的过程不大可能产生侵犯版权的问题,理由是,这一过程具有内部属性。我们将训练行为和语料采集行为作区分,在未经授权的情况之下,破坏他人的版权保护技术措施而获得作为训练语料的作品,当然可能构成侵权。但如果是搜索、获取已经发表并未采取接触保护技术措施的作品,进而作语言训练并建立内部知识结构,则这一阶段不具有侵权的可能性。 人机对话过程的“输入”,还需要有提问者的参与,这是不可或缺的角色。问题本身不会有侵犯他人版权的法律风险,但可能存在被机器收集个人信息的数据风险。数据不平等不单单存在于机器语言的训练过程,也存在提问者与ChatGPT之间。除了作为算法的存在,ChatGPT还是一个海量的数据库,而且跨语言。根据使用者的调查并向ChatGPT征询,ChatGPT目前对提问的回答,其答案的方向仍然基于问题的语言,并不做跨语际回复。语言包含价值和价值冲突,ChatGPT作为机器或者软件,无法作出人类的价值判断或情绪表达。提问者所使用的语言,成为重要的个人数据,当提问足够多的时候,对话软件可以对用户画像并可能投其所好,甚至有意误导。如此一来,不同人哪怕提出同一个问题,ChatGPT给出的回复完全可能是不相同的,甚至是对立的。当这些个人数据足以影响到个体隐私或者声誉等利益的时候,作为收集者和商业利用者的软件平台ChatGPT可能需要承担包括财产和精神上的民事责任。 作为结论的“输出”,由于具有明显的外部显示性,成为版权法观察者的重点。从外观来看,ChatGPT的输出结果是文字表达,法律性质上属于较为明显的文字作品。按照实质性相似判断规则进行比对,再加上文字重复率的量化计算,很容易判断是否构成对版权作品的侵权。OpenAI公司并不否认自己产品的输出成果可能会侵犯到他人作品的版权,在作出权利声明的同时提供了明确的投诉路径和解决方案。通过实验,ChatGPT对这一问题作出了类似的回复。免除侵权责任可能性也是存在的,合理使用制度确保了这一可能性的实现,商业化与否则是是否能够适用合理适用制度的核心构成要件。对OpenAI公司而言,商业盈利是其终极目标,哪怕目前处于不收费的试验阶段,但其Plus收费模式将紧随其后。对用户而言,提出问题、获得答案,具有强烈的个人使用属性,一般不构成商业行为。但如果确有后续的商业使用行为,那么也有可能构成侵权行为。哪怕这一问一答构成了社会分工角度的合作作品,也难以免除其侵权责任。 说在最后的话:ChatGPT提供了新话题场域,但尚不足以构成对版权规范的挑战,更不用说重塑或者重构。说到底,还是人工智能及其成果的话语体系。 (作者系西南政法大学民商法学院、知识产权学院,副教授、硕士生导师 康添雄) 来源:中国日报网 举报/反馈
新闻分析:ChatGPT,变革与风险新华社2023-02-13 08:30
研博论文

新闻分析:ChatGPT,变革与风险新华社2023-02-13 08:30

新华社北京2月13日电新闻分析:ChatGPT,变革与风险 新华社记者彭茜 黄堃 美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后,1月已达到1亿月活跃用户,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将为信息产业带来巨大变革,但由此带来的学术造假、技术滥用、舆论安全等风险亦不容忽视。 (小标题)新一代操作系统平台的雏形 多语言撰写充满想象力的诗歌,编写可运行的程序,快速生成论文摘要,自动制作数据表格,纠正文章中的语法和表达错误,把一周大事写成新闻综述……ChatGPT不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。 ChatGPT还轻松通过一些对人类难度较高的专业级测试:它新近通过了谷歌编码L3级(入门级)工程师测试;分别以B和C+的成绩通过了美国宾夕法尼亚大学沃顿商学院MBA的期末考试和明尼苏达大学四门课程的研究生考试;通过了美国执业医师资格考试……业界形容它的诞生是人工智能时代的“iPhone时刻”,意味着人工智能迎来革命性转折点。 “ChatGPT的成功不应仅仅被看作新一代聊天机器人的突破,而应该重视其对人工智能乃至整个信息产业带来的革命。”北京智源人工智能研究院院长黄铁军接受记者专访时说,人工智能领域的过去十年是深度学习的十年,但产业总体上并没有出现移动互联网和云计算级别的爆发,“ChatGPT的出现,具有划时代意义,大模型+ChatGPT已形成新一代操作系统平台的雏形”。 黄铁军说,ChatGPT在技术路径上采用了“大数据+大算力+强算法=大模型”路线,又在“基础大模型+指令微调”方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。ChatGPT应用了“基于人类反馈的强化学习”训练方式,用人类偏好作为奖励信号训练模型,促使模型越来越符合人类的认知理解模式。 “这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。”中国科学技术大学机器人实验室主任陈小平对记者说。 (小标题)引发新一轮人工智能科技竞赛 ChatGPT的问世正在人工智能领域引发新一轮科技竞赛。北京时间2月8日凌晨,微软推出由ChatGPT支持的最新版本必应搜索引擎和Edge浏览器,宣布要“重塑搜索”。微软旗下Office、Azure云服务等所有产品都将全线整合ChatGPT。 北京时间2月7日凌晨,谷歌也发布了基于谷歌LaMDA大模型的下一代对话AI系统Bard。同一天,百度官宣正在研发的大模型类项目“文心一言”,计划在3月完成内测,随后对公众开放。阿里巴巴、京东等中国企业也表示正在或计划研发类似产品。 人工智能大模型领域的全球竞争已趋白热化。黄铁军认为,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。 值得注意的是,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成虚假信息、版权争议等人工智能通用风险。多家全球知名学术期刊为此更新编辑准则,包括任何大型语言模型工具都不会被接受为研究论文署名作者等。 “学术论文的署名作者须满足至少两个条件,其一是在论文工作中做出‘实质性贡献’,其二是能承担相关的责任。目前这两个条件ChatGPT(以及其他AI系统)都不满足。”陈小平说。 ChatGPT也有应用在舆论信息战方面的潜力。加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠疫情的文章,然后要求其生成关于这场危机的“反事实新闻”。连OpenAI也警告使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。 “针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。(完) 举报/反馈
ChatGPT助力论文写作:探讨AI创作的法律问题
研博论文

ChatGPT助力论文写作:探讨AI创作的法律问题

随着假期结束,大四学生们正在忙碌地完成毕业论文。最近 ChatGPT 的的出现,引发了对于人工智能是否能助其一夜完成论文的疑问。然而,ChatGPT 只是一种工具,能进行辅助性工作,但独立创作仍需自身智慧和努力。关于其著作权问题,还需要考虑生成内容的实质性贡献和特殊使用协议等因素。总之,ChatGPT 并非万能,仍需人类智慧与合作。