文章主题:自然语言处理, 大语言模型, 人工智能, 信息生产

666AI工具大全,助力做AI时代先行者!

本刊官方网站:

http://cjjc.ruc.edu.cn/

作者简介

张尔坤、张一潇,北京师范大学新闻传播学院博士研究生。

引言

ChatGPT为代表的大型语言模型已经在互联网空间中塑造出了新的生态。这种开放域的多轮对话以及生成式技术的突破,为传播研究领域带来了全新的变革。2023年5月14日,由北京师范大学新闻传播学院主导,清华大学新闻与传播学院新媒体研究中心、《国际新闻界》共同参与的“ChatGPT启示会”在北京成功举行。来自我国知名学府如清华大学、北京大学、中国人民大学、北京师范大学等二十余名专家学者聚集在一起,针对“大语言模型下的信息生产与流通领域的挑战”、“大语言模型下的伦理法规领域的疑问”、“大语言模型下的文化领域的变革”三个主题进行了深入的讨论。经过一天的精彩研讨,会议以平等交流的原则,聚焦于大语言模型时代的新变化,提出了66个传播学研究的新问题。

研讨嘉宾

(上午场)

美国卡耐基梅隆大学计算机系博士候选人戴舒琪

北京师范大学新闻传播学院讲师李倩

北京师范大学新闻传播学院副教授刘茜

北京师范大学新闻传播学院副教授钱忆亲

北京大学新闻与传播学院研究员、助理教授苏岩

北京师范大学艺术与传媒学院博士后赵蓓

清华大学社会科学学院副教授张开平

北京师范大学新闻传播学院副院长、教授周敏(主持)

中国人民大学新闻学院讲师张伊妍

北京师范大学新闻传播学院讲师、助理教授朱毅诚

研讨嘉宾

下午场

北京师范大学新闻传播学院副院长、教授丁汉青

北京师范大学新闻传播学院党委书记、研究员方增泉

北京大学新闻与传播学院教授胡泳

清华大学新闻与传播学院教授、院学术委员会主任金兼斌

中国人民大学新闻学院教授、传播系主任刘海龙

天津大学新媒体与传播学院院长、讲席教授陆小华

中国人民大学新闻学院教授彭兰

清华大学新闻与传播学院教授沈阳

北京师范大学新闻传播学院教授、计算传播学研究中心主任吴晔

北京师范大学新闻传播学院教授喻国明

北京师范大学新闻传播学院教授、新媒体研究中心主任张洪忠(主持)

中国传媒大学新媒体研究院院长、教授赵子忠

在今天上午的讨论中,我们有幸邀请到了北京师范大学新闻传播学院周敏教授担任主持人,而北京师范大学计算传播学研究中心主任则是吴晔教授,他为我们深入解读了“ChatGPT的技术逻辑”。吴晔教授将ChatGPT的技术原理概括为“四板斧”,分别对应着四个关键步骤。首先,我们要了解的是ChatGPT的第一“板斧”——文字接龙式的生成逻辑。这个过程基于统计学习,也就是说,ChatGPT可以根据输入信息预测出下一个可能的文本。然而,这种逻辑并不能让ChatGPT真正理解问题的含义。其次,第二“板斧”是解决答案引导的问题,也就是人为地引导“文字接龙”的方向。这一步是为了确保生成的回答能够满足人类的逻辑需求。接着,第三“板斧”则涉及到人类标注答案的质量。通过对答案的标注,我们可以将反馈数据传递给模型,以便模型能够根据这些反馈进行进一步的训练。最后,第四“板斧”就是强化学习。简单来说,它就是一个模型的微调(fine-tuning)过程。在这个过程中,模型在与用户的交互中获得反馈,并根据这些反馈来持续进行自我调整和优化,以生成更优质的回答。

北京师范大学新媒体研究中心主任张洪忠教授主持了下午场的活动,并在活动中进行了引导发言。周敏教授则对上午场的讨论结果进行了详细的汇报。在活动中,张洪忠教授深入剖析了ChatGPT的技术特点和大语言模型对互联网的影响,并指出大语言模型应用ChatGPT目前存在两个重要的技术突破。首先,ChatGPT在开放域的多轮对话方面取得了技术突破,这一变化有效突破了对话技术长期存在的瓶颈,使得人机交互更加适应复杂对话场景,为人机交互的未来发展开启了新的可能性。其次,ChatGPT采用的生成式文本技术也是一大亮点,其生成的文本如同“接龙游戏”,推动了人机交往进入新阶段。这不仅使得自然语言技术从简单的信息处理进化到贴近人类的沟通与交流,更使人们开始关注隐藏在大语言模型背后的技术底座。在我国,各大企业和研究机构也纷纷投入大模型研发的行列。包括百度、阿里、腾讯、华为、字节跳动等公司,以及清华大学在内的多所学术机构都推出了自家的研究成果。然而,随着大模型的广泛应用,互联网竞争的格局也在发生改变。那么,大模型是否会成为互联网竞争的入门门槛?大资本的算力竞争是否将成为互联网竞争的基本方式?云端竞争时代是否已经来临?更重要的是,对话是否真的可以成为平台?这些问题都需要我们进一步思考和探讨。

大语言模型时代传播学研究新问题讨论

议题一:大语言模型下信息生产与流通领域的问题

在 recent discussions on the issue of computational monopoly in large language models, a panel of renowned experts from China and abroad gathered at Tsinghua University’s School of Journalism and Communication to explore the implications. Among the participants were Professor Jin Jianbin from Tsinghua University, candidate for a Ph.D. program at the University of Pittsburgh, Da Shuqi from卡耐基梅隆大学, lecturer Zhang Yiyan from the School of Journalism at People’s Republic of China, and postdoctoral researcher Zhao Bai from Beijing Normal University’s School of Art and Communication.Da Shuqi pointed out that the training of large language models requires massive computational resources, which has set a high threshold for the continuous exploration of big models by academia. As a result, only a few large enterprises and institutions may participate in the research and development of cutting-edge large language models in the future. From the perspective of information production, computational monopolies could lead to market domination of application markets, thereby undermining the diversity of information production.Furthermore, Zhang Yiyan highlighted the potential risk of value domination associated with computational monopolies, particularly when large language models are applied to news production and distribution. This could further intensify and amplify the biases and stereotypes carried by these models. Therefore, large language models applied to news production require higher transparency and profound understanding of technology among news professionals.Shao Bai also raised an insightful concern: as large language models continue to evolve, the increasing demand for computing resources and economic costs may lead to further state competition. To this issue, Professor Jin Jianbin believes that international competitions for large language models are inevitable. He emphasizes the importance of early movers advantage in such competitions, noting that technological advantages may lead to a “win-take-all” situation due to the Matthew effect, thus it is essential to treat large language models as strategic resources and layout them early to seize the opportunity.

苏岩和张伊妍,两位来自北京大学新闻与传播学院的专家,就大语言模型与知识鸿沟这一重要议题进行了深入探讨。在每一次科技革命的浪潮中,我们都能看到类似的挑战,那就是知识生产的鸿沟是会被逐渐弥合,还是进一步拉大?针对这个问题,苏岩持有一种观点,他认为,从知识生产的环节来看,鸿沟实际上正在扩大。这是因为,尽管信息资本更为丰富的群体将继续掌握知识生产的主动权,但这种优势可能会被削弱。然而,张伊妍对此有着截然不同的看法。她认为,大语言模型有可能推动知识的民主化进程。以老年人为例,他们通过自然语言获取信息的方式,会大大降低他们的认知成本。此外,许多人也表示,像ChatGPT这样的技术能够在学习编程方面提供巨大的帮助,这意味着,技术学习层面的鸿沟正在逐步缩小。

在中国人民大学新闻学院的 Prof. Peng Lan、天津大学新媒体与传播学院的 Prof. Lu Xiaohua、清华大学社会科学学院的副教授张开平、赵蓓、李倩、苏岩等专家的讨论中,他们共同关注到了大语言模型下虚假信息传播的挑战。Prof. Peng Lan 警告说,随着 AIGC(人工智能生成内容)技术的发展,我们可能会进入一个真假难辨的信息空间,这对个人和社会的信息环境都构成了巨大的威胁。 Prof. Lu Xiaohua 提出了一个值得深思的问题:如何确保由人工智能生成的内容符合现有的知识体系和知识规则?当前使用大模型来检测大模型的方法是否可能导致逻辑误入歧途?同时, Prof. Zhang Kaiping 也指出了 ChatGPT 在跨文化语境下虚假信息传播的问题:由于不同文化背景的人群有不同的认知模式,因此在西方语境下被认为是真实的信息在其它语境下可能引发巨大争议。 Prof.苏岩强调了媒介素养在应对虚假信息传播中的重要性,她认为,只有具备较高的媒介素养的人才能在复杂的信息环境中构建一个良好的知识体系,避免被虚假信息所误导。此外,赵蓓从社交机器人传播的角度也表达了类似的担忧:大语言模型可能会生成极具迷惑性的信息,甚至可能被用于传播虚假信息或进行舆论操纵。在她看来,如果大语言模型与社交机器人结合,可能会形成类似人类的交流能力,从而使社交机器人传播虚假信息的负面影响得到强化。北京师范大学新闻传播学院的李倩讲师也对大语言模型时代的社交机器人问题表示关注:随着人类和机器人在社交媒体上的行为越来越相似,现有的社交机器人识别系统是否仍然有效?对此,吴晔给出了积极的回答:社交机器人识别是一个“魔高一尺,道高一丈”的过程。机器人识别不仅在文本层面,还包括其他一些固有行为特征,因此未来仍有算法可以应对。然而,戴舒琪对此持有保留意见。

在这篇文章中,北京师范大学新闻传播学院的喻国明教授、赵子忠教授、方增泉研究员、刘茜副教授、朱毅诚助理教授以及李倩、赵蓓等人,针对大语言模型在信息生产过程中的潜在影响进行了深入探讨。喻国明教授将大语言模型视为一个“出道即巅峰”的现象级媒介,对人类社会的影响日益深远和全面。而赵子忠教授则提出疑问:大语言模型将如何改变信息聚合和信息分享的模式?刘茜副教授则在大语言模型的背景下,呼吁人们更多地思考技术对社会公众的自信或自我效能产生的影响,尤其是在当前过渡阶段,不同群体对技术的反应可能存在差异。朱毅诚助理教授对此话题进行了更深入的探讨,他主要从两个角度来考虑这个问题。首先,他关注的是ChatGPT作为内容创作过程中的工具和对话对象,研究这种“联合信息生产”或“信息共建”的能力和结果的差异性。其次,他认为内容强依赖行业,如新闻、教师、营销等行业,需要关注行业内部的关系重构和沟通问题。此外,李倩和赵蓓两位学者也谈到了信息产生过程中的人机交互问题。李倩更侧重于大语言模型对虚拟现实(VR)人机交互的影响,而赵蓓则更关注大语言模型对人机交互(UI)可能带来的改变。最后,北京师范大学新闻传播学院党委书记、研究员方增泉对大模型训练语料的不对称和不平等问题提出了担忧。这些讨论和观点都为我们深入理解大语言模型在信息生产过程中的影响提供了宝贵的视角。

议题二:大语言模型下伦理法规领域的问题

随着人类与大语言模型创作边界的日益交融,模型透明度对公众的影响已引起北京大学新闻与传播学院学者胡泳、张伊妍、赵蓓等人的高度关注。胡泳警告称,任何机器学习技术的运作原理均相较于手动编码系统更为复杂,甚至科技公司工程师也难以阐述算法运行的具体细节,这种不透明性的累加可能导致未来某时出现不确定性”爆炸”。张伊妍从人机共生的视角出发,指出在接收创作任务后,人们将创作目标转化为对大语言模型的输入指令,并对输出成果进行相应调整,此过程中人与大语言模型已经融为一体,形成了赛博格(cyborg)式的创作效果,从而使得人与大语言模型创作边界的模糊化。解决透明度问题的核心在于保障公众的自主权(keep them informed),并通过百分比形式展示人与大语言模型在内容创作中的贡献比例。赵蓓则提出将透明度问题细分为算法透明度、数据透明度和使用透明度三个部分。在算法透明度方面,像GPT-3这样的大型语言模型的算法已公开,人们可以学习模型的内部机制和参数,以便理解其工作原理,分析模型生成的内容和偏见错误。然而,自GPT-3之后,OpenAI和谷歌停止公开算法,透明度的下降可能会对未来的大语言模型发展产生影响。在数据透明度方面,大语言模型的训练数据通常保持封闭,整个决策过程犹如黑箱。在使用透明度上,赵蓓强调,在使用大语言模型之前,应制定一套透明度规范,以防止陷入”使用—检测”的竞争陷阱。

其二,戴舒琪、苏岩等学者提出ChatGPT使用中的隐私保护的问题。戴舒琪以患者就医为例指出,医生输入患者信息并利用ChatGPT为患者开具自动病历的过程中,患者信息会被传输至美国OpenAI公司的服务器上,如何保护患者个人隐私将成为新的问题。苏岩认为,ChatGPT带给人的即时性便捷是仅仅是一种表象,长此以往的后果可能是“数字利维坦”的出现,届时个人隐私数据变为公开信息。赵蓓提到,目前基于大语言模型开发的聊天机器人已能够根据大量聊天记录合成虚拟用户,这一虚拟用户类似于真人用户的数字化身,与虚拟用户的对话可能导致真人用户的隐私泄露。

其三,喻国明和陆小华两位教授认为大语言模型将对社会治理逻辑产生革命性影响。喻国明指出:从古至今人类社会的政治、经济、文化都属于精英治理模式,而技术对于人类社会最大的颠覆在于人类平等性的增强,拉平人与人之间的差距,打破精英和大众之间的壁垒,削弱精英赋权的基础,这将对未来包括传播在内的整个社会治理、运作产生重大甚至根本性的影响。同时,人类增强可能导致精英治理的“黄昏”。在技术的加持下,人类可以从自然版本的身心结构发展到更聪明、更长寿也更符合人性的后人类结构,这一增强使人的差距骤然缩小,这是技术最重大的社会影响。这一影响可能从两个角度来改变未来的发展趋势,一是将人的体能、智能与领袖能力均值化,精英治理彻底变成所谓的庸众治理,但这种情况发生的可能相对细微。更大的可能在于人类增强技术无法拉平人的差距,精英治理会以弱形式长期存在,形成一种新型的普遍强人治理,将精英治理改头换面保持下去。社会治理机制与逻辑的过渡、转变将是面对未来的重大问题。陆小华认为,大语言模型已经在重构社会规则,第一层表现为法律治理规则的重构,互联网、数字技术等相关法律将被改写;第二层表现为传播主体的重构,大语言模型将成为新兴内容生成主体,让社会进入人机共生时代。

其四,北京师范大学新闻传播学院副教授钱忆亲提出了AI伦理法规制的落地问题。钱忆亲指出:关于AI伦理法规学界已讨论多年,当下相关探讨已度过达成某种标准或共识的阶段,进入到实施阶段,即如何把AI伦理落地的阶段。目前国际社会关于AI伦理的探讨仍然比较抽象化、概念化,中国的AI伦理法规如何落地是学界亟需关注的问题。另外,中国大陆在AI伦理的国际标准制定中处于弱势地位,因为目前所有AI伦理的国际标准制定都没有中国大陆代表参与,长此以往将形成布鲁塞尔效应,对中国人工智能公司、产品出海构成不利。

议题三:大语言模型下文化领域的问题

ChatGPT到底是什么,在传播中扮演了何种角色?这个问题受到北京师范大学新闻传播学院教授丁汉青、中国人民大学新闻学院教授刘海龙两位专家的关注。丁汉青指出:技术是人类为了特定目的而创造出的方法和手段,因此ChatGPT实际可以视为一种技术、一种人造物。丁汉青认为,对ChatGPT的研究可从四个分析单元入手,一单元是人工智能制品的分析,探讨大语言模型在产生关系中的定位,探讨人机共生时代的新常规,侧重互动关系的建构;二单元是技术系统的分析,探讨大语言模型与人类的权力关系,分析大语言模型对人的认知模式、感知比例的影响;三单元是技术与社会的组合分析,探讨大语言模型的形塑方法;四单元是技术文化,主要重新审视人类中心的伦理观念,探讨大语言模型作为决策者的可能性与合理性。

刘海龙认为,ChatGPT一方面是一个技术,但另一方面又是人,因为ChatGPT所有的知识来自于人的知识积累。刘海龙提到,ChatGPT在知识库数据中概率抽取词语回复提问,常输出一些不痛不痒的“外交官式回答”,这些回答实际是一种知识的平均值,是以一种从众的、卸除责任的方式替代人类决策,“平均”“从众”“卸责”类似于海德格尔意义下的“常人”,却比“常人”拥有更多的知识,其回答水准超越“普通”,是全人类的平均值,因此可将ChatGPT视为一种“新常人”。刘海龙认为,ChatGPT同时构成一种大他者,不在场却又随时在场,潜在地影响着人们的思想和行为。

沈阳、刘海龙、金兼斌三位教授都认为大语言模型时代人与机器的共同生存必然影响到人的主体性与独立性。清华大学新闻与传播学院教授沈阳认为人与机器的共生存在三个阶段,第一个阶段是人的能力整体上大于机器,即人类当下所处阶段;第二个阶段是机器与人类能力接近阶段;第三个阶段是机器觉醒为硅基生命的阶段,此时人与机器的差距将被迅速拉大。刘海龙从他者消失的角度探讨了人类的主体性危机。刘海龙指出,人类与机器交流时完全以人为中心,无需顾及机器的意愿与想法,这取消了机器作为他者的可能性,使机器沦为奴隶,然而正如黑格尔所言,当奴隶完全顺从、承认、接受主人的意志时会产生一种颠覆,奴隶本身可能获得比主人更多的智力与能力。金兼斌认为,一方面大语言模型作为新技术具有一种解放功能,把白领从繁琐工作中解放,带来普惠服务(universal service),增强人的生产能力,其普世性与重要性或成为国家重要战略性资源;另一方面,当下人类已经不再处于本雅明所谓的机械复制时代,而是抵达人工智能复制时代,人类在面对人工智能时需要一种抵抗精神。金兼斌提到,电视时代人们需要抵抗沙发土豆(couch potato)的懒散状态;手机时代人们需要抵抗成为低头族;而在人工智能时代,人类应该主动追求美、创造美,保持人的独立性与尊严,拒绝成为智能技术的寄生虫。

胡泳教授则从机器发展的初衷对人机关系进行了反思,指出机器的建造的道路本存有两派观点,一派主张建造根据规则和逻辑进行推理的机器;另一派主张建造深度学习机器,让机器根据实例数据和所需输出生成看法,而这派观点正成为当下人工智能的发展道路。机器学习是一个黑盒,最简单的算法也可以触发不可预测的紧急行为,即便大科技公司的工程师也无法确切说明机器学习算法的工作方式,这必将导致不确定性大爆炸的发生。胡泳将机器中的智能喻为幽灵,他认为机器中的幽灵正逐渐达到难以琢磨和不可控制的地步,尽管人类是机器的创作者,却不是机器的主人。胡泳认为,人类是时候进行自我反思:为何制造大语言模型技术?为何把机器设计成类人的、有意图的样子。

彭兰教授关注AIGC(人工智能生成内容)对日常生活的艺术化影响。彭兰提到,过去的每一轮技术赋权都在某种意义上改变着人和艺术间的关系,例如智能手机使普通人也能完成曾被认为是高门槛的摄影创作。彭兰认为,AIGC艺术创作将在数字世界创造幻象和现实的交融空间,这些创作难分真假,对个体生存与整个社会的信息环境都将构成挑战,艺术领域里的所谓的超现实、超超现实,未来或许会成为生活的日常状态。

陆小华、赵子忠教授讨论了大语言模型时代传播学研究和学科建设将面临挑战。陆小华提到,从知识生产的角度看,人与人工智能共生时代产生新的传播主体,人工智能正在成为内容的生产者,而从政治角度看人工智能成为比一般人更有影响力的新权威,这一权威提高了专家门槛,即便跨学科者也难以辨识,这是新闻传播学过去从未遇见的事情。赵子忠对传播学的学科发展持乐观态度,认为当下新媒体教育的总体方向是正确的,Web1.0、Web2.0的教育仍有价值。赵子忠指出,多元化和多样化是人类社会最重要的方向之一,尽管人工智能潮流会对当下的学科教育产生冲击,但媒体教育一定是动态的、不断发展、不断变化主题的,新闻传播学需要找好角度与人工智能时代完成对接,发挥新闻传播学对人社会的贡献。

研究新问题

启示会结束后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。截至2023年5月23日12点,团队共收回有效问卷35份。其中,51.42%(18人次)的应答者为“教授”职称,25.71%(9人次)的应答者为“副教授”职称,8.5%(3人次)的应答者具有“讲师”职称,另外还有2位博士后研究员和3位博士研究生参与填答。

研究团队对收回问卷数据进行因子分析发现,66个问题都呈现为一个因子。进一步研究团队将相关问题输入ChatGPT(GPT-4模型),基于机器理解来归纳、整理大语言模型时代传播研究的探索方向,结果呈现六个研究方向,模型对每个方向还做了简单归纳(见下表)。

表1:ChatGPT归纳的研究方向与学者评分情况

<img src=”https://p3-sign.toutiaoimg.com/tos-cn-i-tjoges91tu/TjPOEiB7SmFE4s~noop.image?_iz=58558

ChatGPT大语言模型:未来媒体与知识生产的新趋势

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!