文章主题:自然语言处理, 大语言模型, 人工智能, 信息生产

666AI工具大全,助力做AI时代先行者!

本刊官方网站:

http://cjjc.ruc.edu.cn/

作者简介

张尔坤、张一潇,北京师范大学新闻传播学院博士研究生。

引言

ChatGPT为代表的大型语言模型在互联网空间新兴生态中扮演了重要角色,其开放域多轮对话和生成技术突破为传播研究领域带来了新的变革。2023年5月14日,由北京师范大学新闻传播学院主管,清华大学新闻与传播学院新媒体研究中心、《国际新闻界》共同主办的“ChatGPT启示会”在北京成功举行。来自我国知名学府如清华大学、北京大学、中国人民大学、北京师范大学等二十余名专家学者汇聚一堂,针对“大语言模型下的信息生产与流通问题”、“伦理法规领域的问题”以及“文化领域的问题”进行了深入探讨,持续进行了为期一天的精彩研讨。最后,依据平等交流的学术原则,会议聚焦于大语言模型时代的新变化,提出了66个具有前瞻性的传播学研究新问题。

研讨嘉宾

(上午场)

美国卡耐基梅隆大学计算机系博士候选人戴舒琪

北京师范大学新闻传播学院讲师李倩

北京师范大学新闻传播学院副教授刘茜

北京师范大学新闻传播学院副教授钱忆亲

北京大学新闻与传播学院研究员、助理教授苏岩

北京师范大学艺术与传媒学院博士后赵蓓

清华大学社会科学学院副教授张开平

北京师范大学新闻传播学院副院长、教授周敏(主持)

中国人民大学新闻学院讲师张伊妍

北京师范大学新闻传播学院讲师、助理教授朱毅诚

研讨嘉宾

下午场

北京师范大学新闻传播学院副院长、教授丁汉青

北京师范大学新闻传播学院党委书记、研究员方增泉

北京大学新闻与传播学院教授胡泳

清华大学新闻与传播学院教授、院学术委员会主任金兼斌

中国人民大学新闻学院教授、传播系主任刘海龙

天津大学新媒体与传播学院院长、讲席教授陆小华

中国人民大学新闻学院教授彭兰

清华大学新闻与传播学院教授沈阳

北京师范大学新闻传播学院教授、计算传播学研究中心主任吴晔

北京师范大学新闻传播学院教授喻国明

北京师范大学新闻传播学院教授、新媒体研究中心主任张洪忠(主持)

中国传媒大学新媒体研究院院长、教授赵子忠

在今天上午的讨论中,我们有幸邀请到了北京师范大学新闻传播学院的周敏教授来主持。接着,我们很荣幸地听到了北京师范大学计算传播学研究中心的吴晔教授分享了他的见解,主题是“ChatGPT的技术逻辑”。吴教授的演讲深入浅出,将复杂的技术原理巧妙地概括为“四板斧”。首先,“四板斧”中的第一板斧,是指ChatGPT所采用的“文字接龙”式生成逻辑。具体来说,就是根据用户输入的信息,预测下一个可能的文本。这个过程依赖于统计学习,但这并不意味着ChatGPT能够真正理解问题的含义。其次,“四板斧”的第二板斧,主要是关于答案的引导问题。也就是说,如何人为地引导“文字接龙”的方向,以便得到更准确、更有价值的答案。第三个“板斧”则涉及到人类标注答案的质量。通过对标注数据进行反馈,模型可以据此进行进一步的训练,从而提高答案的精度和可靠性。最后,“四板斧”的第四个方面是强化学习。这是一种模型的微调(fine-tuning)过程,模型在与用户的交互中获得反馈,并根据这些反馈持续进行自我调整和优化,以生成更好的回答。总的来说,Knowledge Engineering是一个涉及多个领域的交叉学科,包括自然语言处理、机器学习和人工智能等。而ChatGPT正是这个领域中的一个重要应用案例,它通过“四板斧”的技术原理,不断地优化和改进自己的回答,以更好地服务于人类。

北京师范大学新媒体研究中心主任张洪忠教授主持了下午场的活动,并发表了引导性演讲。周敏教授则对上午场的讨论成果进行了总结报告。张洪忠教授针对ChatGPT的技术特性和大语言模型对互联网的影响进行了深入探讨,强调了大语言模型应用ChatGPT的两个关键技术突破:一是实现多轮对话的开放域,这一突破使得对话技术得以适应更复杂的场景,为人机交互开辟了新的可能性;二是引入生成式文本技术,通过生成式路径实现“接龙游戏”,进一步推动人机交往进入新阶段。随着这些技术突破,自然语言技术从简单的信息处理演进到接近人类的沟通与交流。同时,ChatGPT的应用形态只是大语言模型的冰山一角,人们更应该关注的是大语言模型这个技术底座。我国各大企业及清华大学等学府纷纷推出了自家的研究成果,形成了属于自己的大模型热潮。然而,随着互联网的发展,新的竞争趋势也开始涌现:大模型是否会成为竞争的入门门槛?大资本的算力竞争是否成为互联网竞争的基本方式?云端竞争时代是否已经来临?更重要的是,对话是否真的将成为平台现实存在?这些问题都成为了互联网竞争的新挑战,也是我们未来需要深入研究和探讨的方向。

大语言模型时代传播学研究新问题讨论

议题一:大语言模型下信息生产与流通领域的问题

在 recent discussions on the issue of computational monopoly in large language models, a panel of renowned experts from China and abroad gathered at Tsinghua University’s School of Journalism and Communication to explore the implications. Among the participants were Professor Jin Jianbin from Tsinghua University, candidate for a Ph.D. program at the University of Pittsburgh, Da Shuqi from卡耐基梅隆大学, lecturer Zhang Yiyan from the School of Journalism at Renmin University of China, and postdoctoral researcher Zhao Bai from Beijing Normal University’s School of Art and Communication.Da Shuqi pointed out that the training of large language models requires massive computational resources, which has set a high threshold for the continuous exploration of big models by academicians. As a result, only a few large enterprises and institutions may participate in the research and development of cutting-edge large language models in the future. From the perspective of information production, computational monopolies could lead to market domination, thereby undermining the diversity of information production.Zhao Yiyan further highlighted the potential risk of value monopolization associated with computational power, particularly when large language models are applied to news production and distribution. This could strengthen and amplify the biases and stereotypes carried by these models. Therefore, before applying large language models to news production, there is a need for greater transparency, as well as a deep understanding of technology among news professionals.Shao Bai also raised an insightful question: as large language models continue to evolve, the growing demand for computing resources and economic costs may lead to further state competition. To this, Professor Jin Jianbin believes that international competitions for large models are inevitable. He emphasizes the importance of early movers advantage in such competitions, noting that technological advantages may lead to a “win-take-all” situation due to the Matthew effect. As such, it is crucial to treat large language models as strategic resources and layout them early to seize the opportunity.

作为一名文章写作高手,我将对原文进行改写以满足您的要求。在这篇文章中,我们将探讨大语言模型与知识鸿沟的相关问题,并分析技术革命后知识生产鸿沟的变化趋势。在本次对话中,来自北京大学新闻与传播学院的苏岩和张伊妍分别就大语言模型与知识鸿沟进行了深入探讨。他们争论的焦点在于:技术革命是否会导致知识鸿沟被弥合,或者使其进一步扩大?苏岩指出,从知识生产的环节来看,权力分配不均是导致鸿沟扩大的关键因素。在信息资本更为丰富的群体持续占据知识生产优势的情况下,鸿沟实际上在不断扩大。然而,张伊妍持有不同意见,她认为大语言模型有可能推动知识的民主化进程。例如,相较于搜索引擎,老年人通过自然语言获取信息可以大大降低获知成本。此外,许多人也表示ChatGPT在他们的编程学习过程中提供了很大的帮助,这意味着技术学习层面的鸿沟正在逐步缩小。综上所述,尽管技术革命可能会引发关于知识鸿沟的新问题,但大语言模型的出现似乎更有可能推动知识的民主化。在未来的发展中,我们需要密切关注这一领域的前进方向,以便更好地应对挑战和把握机遇。

在中国人民大学新闻学院的 Prof. Peng Lan、天津大学新媒体与传播学院的 Prof. Lu Xiaohua、清华大学社会科学学院的副教授张开平、赵蓓、李倩、苏岩等专家的讨论中,他们共同关注到了大语言模型下的虚假信息传播问题。Prof. Peng Lan 警告说,随着 AIGC(人工智能生成内容)技术的发展,我们可能会进入一个真假难辨的信息空间,这对个人和社会的信息环境都构成了巨大的挑战。 Prof. Lu Xiaohua 提出了一个值得深思的问题:如何确保由人工智能生成的内容符合现有的知识体系和知识规则?当前使用大模型检测大模型的方法是否有可能陷入逻辑误区?同时, Prof. Zhang Kaiping 提出了 ChatGPT 在跨文化语境下传播虚假信息的问题。他指出,由于不同文化背景的人群有不同的认知模式,因此在西方语境下被认为是真实的 information 在其他语境下可能引发巨大争议。 Prof.苏岩强调了媒介素养在应对虚假信息传播中的重要性。他认为,媒介素养可以像一个内在的屏障,帮助人们在复杂的信息环境中构建一个良好的知识体系,而不是被虚假信息所侵蚀。从社交机器人的传播角度出发,赵蓓也表达了类似的担忧。她认为,大语言模型可能会产生具有高度迷惑性的信息,甚至可能被用于传播虚假信息或进行舆论操纵。在她看来,如果大语言模型和社交机器人结合,可能会形成类似人类的交流能力,从而强化社交机器人传播虚假信息的负面影响。北京师范大学新闻传播学院讲师李倩也关注到了大语言模型时代的社交机器人问题:当社交媒体上人与机器人的行为越来越相似时,现有的社交机器人识别系统是否仍然有效?针对这个问题,吴晔给出了积极的回答:社交机器人识别实际上是一个“魔高一尺,道高一丈”的过程。机器人识别不仅在文本层面,还包括其他一些固有行为特征,因此未来仍有可能通过算法应对。然而,戴舒琪对此持有保留态度。

其四,北京师范大学新闻传播学院教授喻国明、中国传媒大学新媒体传播研究院教授赵子忠、北京师范大学新闻传播学院研究员方增泉、北京师范大学新闻传播学院副教授刘茜、北京师范大学新闻传播学院助理教授朱毅诚、李倩、赵蓓还谈到了大语言模型在信息生产过程中的潜在影响。喻国明认为,大模型是一个“出道即巅峰”的现象级媒介,对人类社会的影响越来越深刻和全面。赵子忠提出问题:大语言模型如何变革信息聚合和信息分享模式?刘茜指出:在大语言模型的背景下,应当更多去思考技术对于社会公众的自信或者自我效能的影响是怎么样的?尤其是当前正处于过渡阶段,不同群体对技术可能有不同的反应。朱毅诚接着这个话题谈到:我主要考虑了两个方面的问题,第一是ChatGPT作为内容创作过程中的工具、对话对象,这种“联合信息生产”或者说“信息共建”的能力和结果的差异性研究是值得关注的;第二是内容强依赖行业,如新闻、教师、营销等行业的培养和行业组织内部的沟通和关系重构的问题。另外两位学者李倩、赵蓓都提到了信息产生过程中的人机交互问题,李倩更侧重于大语言模型对虚拟现实(VR)人机交互的影响,赵蓓则更关注大语言模型对人机交互(UI)可能带来的改变。最后,北师大新闻传播学院党委书记、研究员方增泉对大模型训练语料不对称、不平等的问题提出了担忧。

议题二:大语言模型下伦理法规领域的问题

随着人与大语言模型创作边界逐渐模糊,模型透明度对受众的影响引起了北京大学新闻与传播学院教授胡泳、张伊妍、赵蓓等学者的关注。胡泳指出:任何机器学习技术的工作原理一定比手工编码系统更不透明,甚至科技公司的工程师也很难确切地说明算法的工作方式,这种不确定性的叠加可能会在未来某个时间节点产生不确定性的“爆炸”。张伊妍基于人机共创背景谈到:当人接到一个创作任务,把创作目的转换为大语言模型的输入指令并对输出结果进行适当修改的过程中,人机已经融合并形成一种赛博格(cyborg)的创作效果,这导致人与大语言模型创作边界的模糊。透明度问题的重点在于将自主权留给受众(keep them informed),通过百分比方式呈现人与大语言模型双方对内容的贡献比例。赵蓓认为可以将透明度问题细化为算法透明度、数据透明度、使用透明度三个组成部分。在算法透明度上,一些大型语言模型如GPT-3的算法已经公开,人们可以通过学习模型的内部机制和参数了解其工作方式,并据此分析模型生成内容的偏见和错误,但GPT-3之后OpenAI、谷歌不再公开算法,透明度的降低可能会影响大语言模型的未来发展;在数据的透明性方面,大语言模型的训练数据通常是不公开的,整个决策过程往往是一个黑箱;在使用透明度上,赵蓓指出在使用大语言模型之前,应先制定规范使用透明度标准,避免陷入被动的“使用—检测”竞争之中。

其二,戴舒琪、苏岩等学者提出ChatGPT使用中的隐私保护的问题。戴舒琪以患者就医为例指出,医生输入患者信息并利用ChatGPT为患者开具自动病历的过程中,患者信息会被传输至美国OpenAI公司的服务器上,如何保护患者个人隐私将成为新的问题。苏岩认为,ChatGPT带给人的即时性便捷是仅仅是一种表象,长此以往的后果可能是“数字利维坦”的出现,届时个人隐私数据变为公开信息。赵蓓提到,目前基于大语言模型开发的聊天机器人已能够根据大量聊天记录合成虚拟用户,这一虚拟用户类似于真人用户的数字化身,与虚拟用户的对话可能导致真人用户的隐私泄露。

其三,喻国明和陆小华两位教授认为大语言模型将对社会治理逻辑产生革命性影响。喻国明指出:从古至今人类社会的政治、经济、文化都属于精英治理模式,而技术对于人类社会最大的颠覆在于人类平等性的增强,拉平人与人之间的差距,打破精英和大众之间的壁垒,削弱精英赋权的基础,这将对未来包括传播在内的整个社会治理、运作产生重大甚至根本性的影响。同时,人类增强可能导致精英治理的“黄昏”。在技术的加持下,人类可以从自然版本的身心结构发展到更聪明、更长寿也更符合人性的后人类结构,这一增强使人的差距骤然缩小,这是技术最重大的社会影响。这一影响可能从两个角度来改变未来的发展趋势,一是将人的体能、智能与领袖能力均值化,精英治理彻底变成所谓的庸众治理,但这种情况发生的可能相对细微。更大的可能在于人类增强技术无法拉平人的差距,精英治理会以弱形式长期存在,形成一种新型的普遍强人治理,将精英治理改头换面保持下去。社会治理机制与逻辑的过渡、转变将是面对未来的重大问题。陆小华认为,大语言模型已经在重构社会规则,第一层表现为法律治理规则的重构,互联网、数字技术等相关法律将被改写;第二层表现为传播主体的重构,大语言模型将成为新兴内容生成主体,让社会进入人机共生时代。

其四,北京师范大学新闻传播学院副教授钱忆亲提出了AI伦理法规制的落地问题。钱忆亲指出:关于AI伦理法规学界已讨论多年,当下相关探讨已度过达成某种标准或共识的阶段,进入到实施阶段,即如何把AI伦理落地的阶段。目前国际社会关于AI伦理的探讨仍然比较抽象化、概念化,中国的AI伦理法规如何落地是学界亟需关注的问题。另外,中国大陆在AI伦理的国际标准制定中处于弱势地位,因为目前所有AI伦理的国际标准制定都没有中国大陆代表参与,长此以往将形成布鲁塞尔效应,对中国人工智能公司、产品出海构成不利。

议题三:大语言模型下文化领域的问题

ChatGPT到底是什么,在传播中扮演了何种角色?这个问题受到北京师范大学新闻传播学院教授丁汉青、中国人民大学新闻学院教授刘海龙两位专家的关注。丁汉青指出:技术是人类为了特定目的而创造出的方法和手段,因此ChatGPT实际可以视为一种技术、一种人造物。丁汉青认为,对ChatGPT的研究可从四个分析单元入手,一单元是人工智能制品的分析,探讨大语言模型在产生关系中的定位,探讨人机共生时代的新常规,侧重互动关系的建构;二单元是技术系统的分析,探讨大语言模型与人类的权力关系,分析大语言模型对人的认知模式、感知比例的影响;三单元是技术与社会的组合分析,探讨大语言模型的形塑方法;四单元是技术文化,主要重新审视人类中心的伦理观念,探讨大语言模型作为决策者的可能性与合理性。

刘海龙认为,ChatGPT一方面是一个技术,但另一方面又是人,因为ChatGPT所有的知识来自于人的知识积累。刘海龙提到,ChatGPT在知识库数据中概率抽取词语回复提问,常输出一些不痛不痒的“外交官式回答”,这些回答实际是一种知识的平均值,是以一种从众的、卸除责任的方式替代人类决策,“平均”“从众”“卸责”类似于海德格尔意义下的“常人”,却比“常人”拥有更多的知识,其回答水准超越“普通”,是全人类的平均值,因此可将ChatGPT视为一种“新常人”。刘海龙认为,ChatGPT同时构成一种大他者,不在场却又随时在场,潜在地影响着人们的思想和行为。

沈阳、刘海龙、金兼斌三位教授都认为大语言模型时代人与机器的共同生存必然影响到人的主体性与独立性。清华大学新闻与传播学院教授沈阳认为人与机器的共生存在三个阶段,第一个阶段是人的能力整体上大于机器,即人类当下所处阶段;第二个阶段是机器与人类能力接近阶段;第三个阶段是机器觉醒为硅基生命的阶段,此时人与机器的差距将被迅速拉大。刘海龙从他者消失的角度探讨了人类的主体性危机。刘海龙指出,人类与机器交流时完全以人为中心,无需顾及机器的意愿与想法,这取消了机器作为他者的可能性,使机器沦为奴隶,然而正如黑格尔所言,当奴隶完全顺从、承认、接受主人的意志时会产生一种颠覆,奴隶本身可能获得比主人更多的智力与能力。金兼斌认为,一方面大语言模型作为新技术具有一种解放功能,把白领从繁琐工作中解放,带来普惠服务(universal service),增强人的生产能力,其普世性与重要性或成为国家重要战略性资源;另一方面,当下人类已经不再处于本雅明所谓的机械复制时代,而是抵达人工智能复制时代,人类在面对人工智能时需要一种抵抗精神。金兼斌提到,电视时代人们需要抵抗沙发土豆(couch potato)的懒散状态;手机时代人们需要抵抗成为低头族;而在人工智能时代,人类应该主动追求美、创造美,保持人的独立性与尊严,拒绝成为智能技术的寄生虫。

胡泳教授则从机器发展的初衷对人机关系进行了反思,指出机器的建造的道路本存有两派观点,一派主张建造根据规则和逻辑进行推理的机器;另一派主张建造深度学习机器,让机器根据实例数据和所需输出生成看法,而这派观点正成为当下人工智能的发展道路。机器学习是一个黑盒,最简单的算法也可以触发不可预测的紧急行为,即便大科技公司的工程师也无法确切说明机器学习算法的工作方式,这必将导致不确定性大爆炸的发生。胡泳将机器中的智能喻为幽灵,他认为机器中的幽灵正逐渐达到难以琢磨和不可控制的地步,尽管人类是机器的创作者,却不是机器的主人。胡泳认为,人类是时候进行自我反思:为何制造大语言模型技术?为何把机器设计成类人的、有意图的样子。

彭兰教授关注AIGC(人工智能生成内容)对日常生活的艺术化影响。彭兰提到,过去的每一轮技术赋权都在某种意义上改变着人和艺术间的关系,例如智能手机使普通人也能完成曾被认为是高门槛的摄影创作。彭兰认为,AIGC艺术创作将在数字世界创造幻象和现实的交融空间,这些创作难分真假,对个体生存与整个社会的信息环境都将构成挑战,艺术领域里的所谓的超现实、超超现实,未来或许会成为生活的日常状态。

陆小华、赵子忠教授讨论了大语言模型时代传播学研究和学科建设将面临挑战。陆小华提到,从知识生产的角度看,人与人工智能共生时代产生新的传播主体,人工智能正在成为内容的生产者,而从政治角度看人工智能成为比一般人更有影响力的新权威,这一权威提高了专家门槛,即便跨学科者也难以辨识,这是新闻传播学过去从未遇见的事情。赵子忠对传播学的学科发展持乐观态度,认为当下新媒体教育的总体方向是正确的,Web1.0、Web2.0的教育仍有价值。赵子忠指出,多元化和多样化是人类社会最重要的方向之一,尽管人工智能潮流会对当下的学科教育产生冲击,但媒体教育一定是动态的、不断发展、不断变化主题的,新闻传播学需要找好角度与人工智能时代完成对接,发挥新闻传播学对人社会的贡献。

研究新问题

启示会结束后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。截至2023年5月23日12点,团队共收回有效问卷35份。其中,51.42%(18人次)的应答者为“教授”职称,25.71%(9人次)的应答者为“副教授”职称,8.5%(3人次)的应答者具有“讲师”职称,另外还有2位博士后研究员和3位博士研究生参与填答。

研究团队对收回问卷数据进行因子分析发现,66个问题都呈现为一个因子。进一步研究团队将相关问题输入ChatGPT(GPT-4模型),基于机器理解来归纳、整理大语言模型时代传播研究的探索方向,结果呈现六个研究方向,模型对每个方向还做了简单归纳(见下表)。

表1:ChatGPT归纳的研究方向与学者评分情况

注:ChatGPT(GPT-4)所归纳研究问题较原始问题存在部分细节差异。

原文刊载于《国际新闻界》2023年第6期。

大语言模型时代的信息生产与流通:挑战与机遇

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!