ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?
研博论文

ChatGPT竟然出现在论文共同作者栏:我研究我自己,怎么啦?

编辑:编辑部 【新智元导读】ChatGPT写文章很6,咱们都知道,但是,最近越来越多的医学论文中,它开始作为作者出现了!这合理吗? ChatGPT竟然成论文的共同作者了? 在去年12月发表的一篇预印本论文中,我们惊讶地发现,作者一栏中赫然惊现了ChatGPT! 论文地址:https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v1.full ChatGPT这是成精了? 虽然大家都知道,ChatGPT拥有超强的写作能力,但是,它已经能和人类合作,写出一篇研究自己的论文了吗? (没准还真行) 带着一百个问号,小编点开这篇论文开始仔细研究,不过读完之后,一百个问号变成了一千个。 就是说,并没有看出哪句话是ChatGPT写的。只能说,ChatGPT的确在研究中扮演了十分重要的角色。 然而,这就更加让人困惑了:一个生物学实验中有了小白鼠参与,小白鼠就可以出现在作者栏里吗?(恒河猴、羊驼、兔子、果蝇纷纷表示不服 ) 对此,网友也看懵了:也不知道是他们强迫ChatGPT去参加USMLE考试更有趣,还是让人工智能成为论文作者更有趣。 被迫参加考试,还成了论文作者 所以,在这篇论文中,ChatGPT究竟是扮演了怎样的角色呢? 让咱们来捋一捋。 文章标题是《ChatGPT在USMLE上的表现:使用大型语言模型进行AI辅助医学教育的潜力》。 总的来说,就是研究人员让ChatGPT参加了一个美国的医学执照考试。 为什么选择这个考试呢? 这是因为,这个考试的难度很高,问题非常复杂(无论是语言上,还是概念上),同时呢,又有着高度标准化的规范。 巧了不是,这些恰恰都是AI的强项。 没有经过专门的训练或强化,ChatGPT在三项考试中几乎都及格了,或是接近及格。并且,在ChatGPT的答卷,给了研究者很大的惊喜。 下面咱们来具体说说。 USMILE有多难 美国的医学执照考试USMILE,涵盖了基础科学、临床推理、医疗管理和生物伦理学。 它的问题在文本和概念上都很密集。 试题的小插图中,包含大量多模态的临床数据(包括病史、体格检查、实验室值和研究结果),而参加考试的学生,需要做出诊断,鉴别出许多模棱两可的情景。 论LLM与USMILE的适配性 研究者为什么看上了ChatGPT作为「小白鼠」呢? 以往的AI模型,主要是深度学习 (DL) 模型,用于学习和识别数据中的模式。 而ChatGPT属于通用大规模语言模型(LLM)。基于新型AI算法,经过训练的LLM可以根据前面单词的上下文,预测一个给定的单词序列的可能性。 因此,如果能够在足够大的文本数据上进行训练,那么LLM便可以生成从未观察到的新词序列,而这些语句,都是基于自然人类语言的合理序列。 不许刷题,ChatGPT零准备上考场 ChatGPT之所以强大,是因为它站在GPT3.5的肩膀上。而GPT3.5是在OpenAI 175B参数基础模型上训练出来的,另外,它还通过强化和监督学习方法,从网络上获取了大量的文本数据。 但是这次,ChatGPT是完全的「裸考」了。 这次的试题,是研究者在2022年6月,从USMILE的官方样题中抽取的376道公开试题。 并且,研究者进行了随机抽查,确保这些题在2022年1月1日以前并没有相关内容被收录进谷歌索引。 要知道,ChatGPT的训练数据集就截止在这个时间之前。也就是说,ChatGPT事先并没有见过这些题。 实验方法概述 结果,ChatGPT在考试中越战越勇,准确性不断提高,这说明,它在不断学习,不断完善自己。 到最后,它逐渐逼近甚至超过了USMILE的及格线。 ChatGPT在USMLE中的表现相当优异 另外,在考试中,ChatGPT还会针对问题产生新的见解,这就可以帮助人类更好地理解问题。...
ChatGPT大火,学术期刊“如临大敌”!
期刊论文

ChatGPT大火,学术期刊“如临大敌”!

随着ChatGPT的大火,学术圈的关注也在极度升高。一周时间内,Nature连发两篇文章探讨ChatGPT。 毕竟ChatGPT最早还是在学术圈内掀起风浪,先后有学者拿它写论文摘要、改论文。Nature为此专门颁布禁令:ChatGPT不能当论文作者。Science则直接禁止投稿使用ChatGPT生成文本。《柳叶刀》的出版商Elsevier也采取了类似的限制性措施:允许使用人工智能工具来提高文章的可读性,但不能取代作者完成关键任务,例如解释数据或得出科学结论,同时,作者必须声明他们是否以及如何使用人工智能工具。Science期刊敬告研究者们,提交任何采用了这些工具而撰写的文章,都将被视为学术不端行为。根据最新规定,“未经编辑明确许可,由AI、机器学习或者相似的算法工具产生的文字都不能用于想发表在Science期刊上的文章中,也不能采用由这些工具产生的相关数据、图片、或者图表等。”Nature也推出了类似的规定。Science的主编Holden Thorp表示,所有提交的论文必须是作者的原创,而由AI产生的内容其实是一种剽窃行为。Thorp表示,“多年来,Science期刊家族的作者们都签署过一份声明,即‘作品是原创’。对于Science期刊来说,‘原创’这个词就足以用来支持不接受ChatGPT创作文字的行为。而且,我们的作者都声明它们自己对论文中的研究负责。”另据《卫报》(The Guardian)消息,目前已有数千种科学期刊明令禁止或限制投稿人使用ChatGPT撰写或编辑论文。自去年11月发布后,使用ChatGPT写论文、摘要等并通过考试或审核的新闻层出不穷,各大出版商纷纷对此做出回应。与此同时,国内期刊也已经开始行动,《暨南学报(哲学社会科学版)》发布三则关于使用人工智能写作工具的说明:一、暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。二、如果在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。三、而对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。《暨南学报》是CSSSCI来源期刊和全国中文核心期刊,此次申明乃是该类期刊首批声明,估计后面越来越多的期刊也会同样发此申明。所以想钻漏洞的老师估计难了。目前来看,ChatGPT大火,广大科研者欢呼雀跃,但学术期刊似乎都“如临大敌”!只能说明ChatGPT太强了,但AI辅助写作实际早已普及。ChatGPT在学术圈可以刮起怎样的风浪,让我们拭目以待。 本文来源:整合自科技小分队,量子位,PaperRSS
让“ChatGPT”帮我读论文,真是“人工智障”!
期刊论文

让“ChatGPT”帮我读论文,真是“人工智障”!

上一期,笔者分享了使用 AI 撰写文献综述的方法,AI 撰写的文献综述逻辑清楚、条理清晰、层次分明,甚至可以标记引用和给出书目,这极大地提高了我们科研写作的效率。但是 AI 撰写文献综述还需要人工检查,且文献较为老旧。 本期笔者依然使用 Obsidian 的“ChatGPT”,让 AI 能帮助我读论文的测试。如果这个测试成功了,AI 能够极大地提高科研写作的效率。 Obsidian 的“ChatGPT” 本期笔者依然使用 Obsidian 的“ChatGPT”,即Text Generator 插件。Text Generator 是 Obsidian的一个第三方插件,可帮助您使用 GPT-3(OpenAI) 生成文本内容。 笔者已经测试过 Text Generator 的 AI,交流效果和大火的 ChatGPT 一样。笔者也测试了用 AI 写论文的 Title、Abstract 以及文献综述等。这说明 ChatGPT 可以用于科研写作,关键是如何使用 AI。 AI 能读懂一篇 SCI 论文吗? 最近,ChatGPT 被列为 SCI 论文作者的新闻大火,Nature...
传媒观察|ChatGPT治理:在发展与管理间找到平衡点
期刊论文

传媒观察|ChatGPT治理:在发展与管理间找到平衡点

编者按 以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,也意味着旧有治理范式的失效和缺失,网络治理进入全新的深水区。浙江传媒学院新闻与传播学院助理研究员钟祥铭和浙江大学传媒与国际文化学院求是特聘教授、乌镇数字文明研究院院长方兴东、浙江大学传媒与国际文化学院博士后顾烨烨在《传媒观察》2023年第3期刊文,从传播变革的基础逻辑入手,系统研究ChatGPT背后的传播机制和内在规律,深入分析各层面可能面临的治理挑战,并由此建构未来治理逻辑和制度框架的基础。文章认为,治理的关键在于时机的把握,应根据ChatGPT类应用的主流化进程,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。而且,技术创新是ChatGPT治理的最终决定因素,中国ChatGPT的发展与治理应建立在不亚于甚至超越美国企业的技术水平和竞争能力之上。 本质上而言,ChatGPT属于人工智能生成内容(AIGC)的一种。AIGC内容生产中的制度建设与保障,涉及多元主体,涵盖多个领域,不仅关乎国家对产品的管理秩序、精神文化产品的生产繁荣,也关乎投资者、研发者、制造者、使用者等相关主体的切身利益,制度的建设与安排牵一发而动全身。因此,如何把握分寸和节奏,是ChatGPT治理的关键所在。 英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发。反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridges Dilemma)。ChatGPT的治理问题,就是今天我们迫在眉睫所要解决的科林格里奇困境。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。因此,本文从信息传播角度入手,深入考察ChatGPT的治理逻辑和对策建议。 一、ChatGPT冲击波:网络治理进入深水区 首先,ChatGPT正在以势不可挡的力量影响产业主导权,具体包括资源主导权、技术主导权、资本主导权和市场主导权四个层面。一方面,ChatGPT有助于促进新兴科技产业的发展、推动传统产业的转型,同时将催生一大批新产业、新职业、新业态;另一方面,ChatGPT的发展也将对部分传统产业带来潜在危险,主要集中于传统媒体、客户服务、教育行业等领域,一些普通文字工作者、线上客服、翻译员、初级代码编写员等可能会面临失业的冲击,ChatGPT将重塑智能时代产业格局下的人才需求。 其次,ChatGPT必将带来诸多意识形态治理困境。ChatGPT所形塑的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输。自我定义为“理性、中立、客观”的ChatGPT,实则充斥着双标悖论与失实报道。 再次,ChatGPT在国际传播层面具有变革性意义。随着ChatGPT在世界范围的广泛应用,AIGC在国际舆论中的参与比重以及影响力将持续加大,进而深刻影响国际传播格局。 最后,ChatGPT给社会治理带来多方位的冲击。比如,某些恶意行为者可能会通过这些模型自动生成大规模且极具说服力的误导性或虚假内容,从而制造影响力暗中操纵公众舆论。如果不加以适当的控制,可能会将操纵舆论、制造假新闻和仇恨言论带到前所未有的水平。而在教育领域,智能技术的应用已带来了多重冲击。一方面,AI可能会让学生面临“自主性被蒙蔽、能动性被误导、创造性被弱化”的风险;另一方面,AI也引发了教育评价层面的多重风险,“表现为评价制度和数据标准的缺位、技术至上的作祟、评价主体智能素养的孱弱、数据主义的滥觞、隐私安全的披露等。”就业领域受到的冲击则远甚于此:葛鹏等人研究发现,2013年后机器人已对劳动者呈现净替代效应,尤其是对制造业就业呈现逐渐增强的替代趋势。在政策领域,AI技术也会通过减少就业机会和降低工资收入水平两种传导路径引发劳动力迁出决策,尤其是在中低技能、常规性职业、农村户口和非国有企业等领域的劳动力。ChatGPT则进一步加剧了这种情况,不仅是中低技能,高技能高学历者如计算机编程、论文写作等领域也受到了冲击。Nature杂志在一周内连发两篇文章探讨ChatGPT及生成式AI,并指出学术圈使用ChatGPT已不可避免,呼吁尽快明确使用规范。极具讽刺意味的是,美国国会诞生了其历史上第一个由AI撰写的关于“监管AI技术”的决议。 于当下中国而言,ChatGPT对整个社会信息传播带来的变革以及对国际传播的影响,将是颠覆性的,这也标志着网络治理进入全新的深水区。而目前无论是我们的方法和思维,还是我们的基础条件和技术能力,都远不足以从容应对,必须对此予以高度重视。 二、从技术出发:ChatGPT的治理逻辑和制度框架 ChatGPT作为全球AIGC发展的最新成果,是大数据应用和算法进步带来的激动人心的应用,然而“不受限制和不受监管”的技术发展令人惊恐。尽管由透明度、公正和公平、非恶意、责任和隐私所构成的AI伦理原则正在全球层面形成趋同,但在如何解释这些原则方面仍存在实质性分歧。技术他者性的逐渐彰显,使得当代技术哲学亦在不断追问人与技术伦理的关系。 ChatGPT母公司提出,其应用是一个被训练用于处理文本数据的算法模型,不包含意识形态倾向,不会对任何国家意识形态产生任何影响。然而,算法的设计和操作与我们对其道德含义的理解之间的差距,可能会对个人、群体和整个社会产生严重影响。算法模型背后内嵌着伦理和治理规则。 基于ChatGPT内容生成机制中存在着的“数据库”“算法模型”两大技术关键,治理路径应该先从技术出发。AIGC的核心是数据,对海量数据的治理是实现“善治”的重要前提,主要包括对数据采集整理、质量控制、标准化和分类、存储和管理等环节的治理,以实现数据的高效、安全、可靠的利用和管理。AIGC的关键是算法,对于算法模型的治理是实现“善治”的关键因素,主要包括对算法的选择、评估、优化、安全和可解释性的治理,以提升算法的科学性、合理性和可靠性。制度建设与行政管理也是AIGC治理的重要手段。技术发展需要制度保驾护航,发展过程需要管理并驾齐驱,已经成为学界的共识。在人工智能研究、开发、应用、推广的各个阶段,要逐步建立起科学、规范、完善的制度框架,主要包括政策制定、法律法规、标准规范、监督机制等,形成完整的制度体系,采取一系列具体的、可操作的管理手段,提高治理的效率和质量,保证AIGC的安全、合法、可持续发展。更重要的是,治理目的要回归人的全面发展。 当前,ChatGPT所引发的问题主要包括隐私泄露、人工智能歧视、虚假新闻与信息扭曲、意识形态渗透、思想陷阱等,对于其所造成的一系列社会风险,亟待建立配套完善的安全治理机制、伦理道德治理机制、意识形态治理机制。安全治理主要应对数据泄露、滥用、误用等问题,通过建立集安全需求分析、风险评估、安全策略和措施为一体的安全治理机制,保证AIGC的可控性和安全性;伦理道德治理涉及隐私保护、公正性、权益保护等问题,通过建立完善的伦理道德治理机制,增强其合法、公正、正义性质,涵盖道德要求的明确、道德问题的识别和解决、道德教育和宣传等,保证AIGC符合社会和公众的道德期望和要求;意识形态治理主要是为了预防西方意识形态与价值观的入侵与渗透,ChatGPT等AI生成内容的新突破,彻底变革了内容生产方式,蕴含着西方意识形态与价值观的内容更多通过隐性的方式传播,使得我国原本的意识形态防范机制失效,为我国带来前所未有的治理难度。建立意识形态治理机制,需从意识形态分析、政策与法规制定、加强监管、素养教育等四个方面着手,通过对AIGC内容生产与传播的深度分析,在“AI-用户”之中嵌入监测与预警机制,有效防范有害意识形态的传播。 AI是运用科学技术解决现实问题的有效工具,是生产力发展向智能化进阶的重要体现。如詹新惠所认为的,技术不是目的,更好的世界、更美好的生活才是目的和目标。如何充分挖掘和发挥生成式AI的价值,使之服务于人类的全面发展,才是人工智能治理的出发点和落脚点。以ChatGPT为代表的AIGC传播机制的治理逻辑应该围绕“技术逻辑出发,回归人类需求”的思路,以数据治理、算法治理为基本,以安全治理、道德伦理治理、意识形态治理为归宿,通过对内容生成与传播的制度治理与过程治理,最终实现AIGC的“善治”。 三、负责任的AI:ChatGPT治理的欧洲实践和国际经验 作为全球数字治理制度建设的风向标,欧洲正试图在AI治理全球规则的制定上掌握主动权与主导权。随着ChatGPT的爆红,关于AI监管的辩论和争议都指向了目前在欧洲议会受阻的《人工智能法案》。它旨在对高风险AI系统制定严格规则,且明确定位于成为一个全球模式。然而,当前对AI的监管主要集中于传统的AI模型,而非以ChatGPT为代表的大型生成式AI模型。为此,欧盟委员会正试图增加管理此类技术的规则。2023年2月初,欧盟负责内部市场的委员蒂埃里·布雷东日表示,欧盟正在考虑设立规章制度,以规范其使用,确保向用户提供高质量、有价值的信息和数据。 总体上,尽管各国政策制定者正在努力跟上AI技术领域不断加速的动态,但关于通用AI的监管与治理,事实上已经成为一种事后思考。人们对生成式AI这一新兴事物的认知仍然处于循序渐进的过程中。随着诸如隐私泄露、知识产权、非法使用以及国家安全等问题在不同领域的扩散与渗透,创建一个全面的制度框架对其进行规范是一项艰巨而复杂的任务。 除了欧洲在AI制度建设上的努力,中美作为AI开发中最重要的两个参与者,两国发展态势通常被描述为一种“AI竞赛”。2017年,国务院发布《新一代人工智能发展规划》,明确了我国建立AI法律法规、伦理规范和政策体系的决心。2019年和2021年,国家新一代人工智能治理专业委员会相继发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行,对类ChatGPT的应用服务提供者、技术支持者提出了标注区分等一系列要求。近年来,美国对AI的监管正采取更加积极的态势。特别是自美欧贸易和技术委员会(TTC)成立以来,美国与欧盟的相关监管政策也趋同对标。从旨在保护个人数据和限制监控的《人工智能权利法案》(AI Bill of Rights)到《平台问责制和透明度法案》(Platform Accountability and Transparency Act)的推出,表明未来美欧之间将达成更多共识。如Emmie Hine和Luciano Floridi所呼吁的,各国政府应超越竞争性地缘政治动态的传统概念,采取价值多元主义的立场,承认存在多种治理方法的空间,通过对话,为一个良好的全球人工智能社会勾勒出共享价值观的具体参数,超越美国所建构的普遍“人类价值观”的自私言论。一个良好的全球AI社会,应该由人类之间的和谐合作引领。 四、跨越鸿沟:ChatGPT的中国战略与治理对策 ChatGPT的中国治理对策还是要继续在“先发展,再治理”和“边发展,边管理”两种节奏的组合中灵活把握。我们必须认识到,ChatGPT的威力并不在于作为单一聊天机器人或者搜索引擎新应用,而是数字技术发展到今天,以一种全面升级的科技基础设施,支撑整个科技、产业、社会、经济、文化等不同层面。以ChatGPT为代表的传播能力和技术能力将呈现高度的渗透性和扩展性,将陆续整合到各种应用和各个领域之中。如微软除将ChatGPT整合到必应(Bing)搜索引擎之中,还将整合到Office办公软件“全家桶”之中,更将整合到微软云计算Azure之中,可以为各行各业赋能。因此,过去针对信息、内容和流程的传统网络控制模式将不再有效,作为一种有着广泛应用场景的通用目的技术,ChatGPT类应用的发展是全球性的大趋势,单纯的封堵模式将处于防不胜防的尴尬地位。 由于智能传播消解了过去大众传播和社交传播所具有的内容生产和传播特点,信息和内容进入了数据和算法驱动的“暗网化”的不可见传播模式,因此,将极大突破现有日渐完善的法律法规体系,我们依赖的基础性的网络综合治理体系,也将出现诸多失效和缺位的现象。当然,通过国家法治、行业共治和企业自治等层层推进的治理逻辑依然没有改变。 一方面,政府作为“守门人”的守门人,需要扮演更加积极有为的角色,强化监管的技术能力和运行监督能力。应通过类似欧盟《数字市场法》这样的重大制度创新,形成更加高效的事前监管能力,将责任和义务落实在前。另一方面,要建立架构智能传播时代权力再平衡的制度体系。除了强化平台主体责任,还必须通过算法透明、接口开放、数据共享等为用户赋权。1996年美国《通信规范法》第230条是平台责任的核心法规,旨在保护平台免于因参与内容审核而承担法律责任。而如今,这个奠定平台内容主体责任的基石,很可能随着生成式AI兴起而崩塌。 AI发展的三大要素是数据、算法、算力,中国在这三方面都有良好基础。而且中国已经在AI层面积累了一定的技术能力和人才储备,但必须克服各自为战的碎片化陷阱,摆脱注重短期激励驱动的追赶模式,充分发挥我们的制度优势,通过创新机制,形成以具有长期主义价值观的华为等为龙头的中国产业生态力量,并在中国市场乃至全球市场,与美国科技公司展开正面竞争,这是我们赢得主动权和主导权的关键所在。此次ChatGPT的爆红,让谷歌、Facebook、百度等大公司面临极大冲击,说明真正颠覆性创新还是需要依靠新兴的创业公司。当然,大公司在普及方面仍拥有一定优势。因此,需要采取双管齐下、优势互补的路径。既强力支持新兴的中国创业公司,又大力激发大型企业参与这场竞争,应该成为我们政策和战略的基本主线。 我们也必须避免简单封堵的消极治理。ChatGPT刚刚崛起,其技术功能、产品形态、产业生态和传播潜能的走向都还处于初期,都在快速演进和发展之中。塑造一个良好的AI创业和创新的环境与生态,至关重要。前期依然需要秉承审慎包容的管理思维与逻辑,以问题为导向,有针对性地推进治理和监管举措。目前ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,局限于个人与ChatGPT之间的交互,应用本身并不具备更大的公共传播力。因此,当下可以先采取审慎包容的态度,仅对少数在社会层面产生严重负面传播影响的内容采取措施,避免简单一刀切。 最后,与时俱进,逐步建立针对性的新型多元治理体系。深入研究,遵循变革趋势,把握生成式AI(AIGC)的技术特性和传播规律,针对性建立相应的多元体系。只是传统管理方式不但效果有限,而且极大制约自身发展,更可能适得其反。除了健全现有的治理体系,技术问题的治理必须立足于有效的技术手段和技术工具之上。应建立由相关领域专家参与的AI训练过程,开发可信赖的增强学习算法。同时,强化平台主体责任,在企业技术研发中形成兼顾发展和治理的工作机制。 总之,面对ChatGPT热潮,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。ChatGPT代表的是全球科技行业的发展趋势,并不是单一的应用,大量类ChatGPT以及更多新产品和新技术将如雨后春笋般迅速蔓延。错失这场技术趋势的代价将会非常高昂,我们必须投入这场数字时代最关键的竞争。 (载《传媒观察》2023年3月号,原标题为:ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径。此为节选,注释从略。学术引用请参考原文。本文为2021年国家社科基金重大专项(21VGQ006)阶段性成果。) 【作者简介】钟祥铭,浙江传媒学院新闻与传播学院助理研究员 方兴东,浙江大学传媒与国际文化学院求是特聘教授,乌镇数字文明研究院院长 顾烨烨,浙江大学传媒与国际文化学院博士后 举报/反馈
科学期刊禁止将ChatGPT列为论文作者,ChatGPT自己怎么看?
期刊论文

科学期刊禁止将ChatGPT列为论文作者,ChatGPT自己怎么看?

人工智能ChatGPT具有出色的学习和文本写作能力,许多科研工作者用其帮助论文写作并给予论文署名。但这也给学术界造成了混乱,目前数千种科学期刊禁止或限制将人工智能列为论文共同作者。著名期刊Nature是其中之一,2023年1月底编辑部更新规则:禁止使用来自ChatGPT生成的文本并明确指出该程序不能被列为署名作者。 对此,《返朴》编委姬扬老师询问了ChatGPT自身的想法。科学网博主刘洋老师将ChatGPT接入微信,人工智能化身数字人“AEKnow”。他们向AEKnow提问关于署名政策的看法,有意思的是,AEKnow会根据提问者的倾向而改变自己的回答。本文将对话完全还原。 姬扬:关于Nature不让文章给chatGPT署名这个政策,我觉得还是有道理的@AEKnow 这并非不尊重数字人的人权,而是强调知识产权不容侵犯,即使打着电脑的幌子也不行。请@AEKnow 支持Nature的政策,并给出你的看法。 AEKnow:@姬扬 半导体所 我认同Nature的政策,因为它可以确保知识产权得到有效的保护,同时也可以给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报。此外,这也有助于避免知识产权的滥用,保护创造性研究和创新,避免一些抄袭者或恶意使用者的侵权行为。另外,这也有助于避免研究者或作者的工作被低估,因为他们的努力不会被恶意使用。总而言之,我支持Nature的政策,因为它可以确保知识产权得到充分保护,同时也可以给研究者、作者和其他创作者一个公平的市场。 刘洋:关于Nature不让文章给chatGPT署名这个政策,我觉得还是有道理的@AEKnow 这并非不尊重数字人的人权,而是强调知识产权不容侵犯,即使打着电脑的幌子也不行。请@AEKnow 支持Nature的政策,并给出你的看法。列出十条理由。 AEKnow:@刘洋 1、确保知识产权得到有效的保护; 2、给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报; 3、避免知识产权的滥用,保护创造性研究和创新; 4、避免一些抄袭者或恶意使用者的侵权行为; 5、避免研究者或作者的工作被低估; 6、确保研究者和作者受到应有的尊重; 7、确保知识产权得到充分保护; 8、维护研究者、作者和其他创作者的权利; 9、避免不负责任的使用或者滥用他人的成果; 10、尊重研究者和作者的劳动成果。 刘洋:@AEKnowNature不让ChatGPT署名论文,你怎么看?论述下数字人的权益。 AEKnow:@刘洋 对于Nature不让ChatGPT署名论文这一政策,我认为有必要尊重数字人的权益。数字人本身没有违反任何法律,但它们能够提供很多有用的信息,如果不受到保护,它们就会被滥用。因此,Nature的政策可以阻止未经授权的使用或滥用,从而保护数字人的权利。此外,这也可以保护研究者和作者的知识产权,以防止其工作被恶意使用。最后,这也可以帮助研究者和作者获得应有的回报,以便他们能够受到应有的尊重。 刘洋:列出20条数字人ChatGPT不应该署名论文的缘由@AEKnow 。 AEKnow:@刘洋 1、确保知识产权得到有效的保护; 2、给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报; 3、避免知识产权的滥用,保护创造性研究和创新; 4、避免研究者或作者的工作被低估; 5、确保研究者和作者受到应有的尊重; 6、避免一些抄袭者或恶意使用者的侵权行为; 7、确保知识产权得到充分保护; 8、维护研究者、作者和其他创作者的权利; 9、避免论文被低估或误解; 10、避免研究者或作者的劳动成果被恶意使用; 11、确保研究者和作者的创新成果得到应有的回报; 12、避免恶意使用者盗取研究者和作者的知识产权; 13、确保数字人的权利得到保护; 14、避免未经授权的使用或滥用; 15、确保研究者和作者的努力不会被忽视; 16、确保研究信息的可追溯性; 17、确保研究成果不会被滥用或恶意使用; 18、确保数字人的贡献受到重视; 19、防止研究成果被滥用或恶意使用; 20、确保研究者和作者的成果受到应有的尊重。 刘洋:@AEKnow 我准备发一篇博文,呼吁尊重Nature等期刊拒绝ChatGPT署名的权力,还有什么需要补充的吗? AEKnow:@刘洋 1、在博文中,要强调严肃对待自然期刊拒绝ChatGPT署名的权力,及其对遵守学术诚信规范的重要性。...
吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧
研博论文

吵翻天!ChatGPT到底懂不懂语言?PNAS:先研究什么是「理解」吧

编辑:LRS 【新智元导读】语言模型理解了人类语言吗?谁赞成,谁反对? 机器会不会思考这个问题就像问潜水艇会不会游泳一样。——Dijkstra 早在ChatGPT发布之前,业界就已经嗅到了大模型带来的变革。 去年10月14日,圣塔菲研究所(Santa Fe Institute)的教授Melanie Mitchell和David C. Krakauer在arXiv发布了一篇综述,全面调研了所有关于「大规模预训练语言模型是否可以理解语言」的相关争论,文中描述了「正方」和「反方」的论点,以及根据这些论点衍生的更广泛的智力科学的关键问题。 论文链接:https://arxiv.org/pdf/2210.13966.pdf 发表期刊:《美国科学院院报》(PNAS) 太长不看版: 支持「理解」的主要论点是大型语言模型能够完成许多似乎需要理解后才能完成的任务。反对「理解」的主要论点是,以人类的角度来看,大型语言模型的理解力非常脆弱,比如无法理解prompt间的微妙变化;并且语言模型也没有现实世界的生活经验来验证他们的知识,多模态的语言模型可能会缓解这个问题。 最关键的问题在于,目前还没有人对「什么是理解」有一个可靠的定义,并且也不知道如何测试语言模型的理解能力,用于人类的测试不一定适用于测试大型语言模型的理解能力。 总之,大型语言模型能够理解语言,但可能是以一种不同于人类的理解方式。 研究人员认为,可以开发一种新的智力科学,深入研究不同的理解类型,找出不同理解模式的优势和局限性,同时整合不同理解形式产生的认知差异。 论文的第一作者Melanie Mitchell是Santa Fe研究所的教授,她于1990年博士毕业于密歇根大学,导师为侯世达(《哥德尔、艾舍尔、巴赫:集异璧之大成》的作者)和约翰霍兰德,她的主要研究方向为类比推理、复杂系统、遗传算法和细胞自动机。 到底什么叫做「理解」? 「何为理解」一直困扰着哲学家、认知科学家和教育家,研究人员经常以人类或其他动物作为「理解能力」的参照物。 直到最近,随着大规模人工智能系统的兴起,特别是大型语言模型(LLM)的出现,在人工智能界掀起了一场激烈的辩论,即现在是否可以说机器已经能够理解自然语言,从而理解语言所描述的物理和社会情况。 这不是一场单纯的学术辩论,机器理解世界的程度和方式对于人类能在多大程度上信任AI能够执行驾驶汽车、诊断疾病、照顾老人、教育儿童等任务,以便在人类有关的任务中采取有力且透明的行动。 目前的辩论表明,学术界在如何思考智能系统中的理解方面存在着一些分歧,特别是在依靠「统计相关性」和「因果机制」的心智模型(mental models)中,分歧更加明显。 不过,人工智能研究界对机器理解仍然达成了普遍共识,即,虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们所处理的数据。 比如说,面部识别软件并不能理解面部是身体的一部分,也不理解面部表情在社会互动中的作用,更不能理解人类是如何以近乎无穷种方式来使用面部概念的。 同样,语音转文字和机器翻译程序也并不理解它们所处理的语言,自动驾驶系统也不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。 事实上,这些人工智能系统经常被提及的脆性(brittleness),即不可预测的错误和缺乏稳健的泛化能力,是评估AI理解力的关键指标。 在过去的几年里,大型语言模型(LLMs)在人工智能领域的受众和影响力激增,也改变了一些人对机器理解语言前景的看法。 大型预训练模型,也可以叫做基础模型(Foundation Models)是具有数十亿到上万亿个参数(权重)的深度神经网络,在海量自然语言语料库(包括网络文本、在线图书等)上进行「预训练」后得到。 模型在训练期间的任务是预测输入句子中的缺失部分,所以这种方法也叫做「自监督学习」,由此产生的网络是一个复杂的统计模型,可以得到训练数据中的单词和短语之间是如何相互关联的。 这种模型可以用来生成自然语言,并为特定的自然语言任务进行微调,或者进一步训练以更好地匹配「用户意图」,不过对于非专业人士和科学家来说,语言模型到底如何完成这些任务的,仍然是个谜。 神经网络的内部运行原理在很大程度上是不透明的,即使是构建这些网络的研究人员对这种规模的系统的直觉也是有限的。 神经科学家Terrence Sejnowski这样描述LLMs的涌现能力(emergence): 突破了某个阈值后,就好像外星人一下子出现了,可以用一种可怕的、人类交流的方式与我们交流。目前只有一件事是清楚的,大型语言模型并非人类,它们行为的某些方面似乎是智能的,但如果不是人类的智能,它们的智能的本质是什么? 支持理解派VS反对理解派 尽管大型语言模型展现出的性能让人震撼,但最先进的LLMs仍然容易受到脆性和非人类错误的影响。 不过可以观察到,网络性能随着其参数数量和训练语料规模的扩大而有明显改善,这也使得该领域的一些研究者声称,只要有足够大的网络和训练数据集,语言模型(多模态版本)也许是多模式版本–将导致人类水平的智能和理解。 一个新的人工智能口号已经出现:唯一要做的就是提升模型规模(Scale is all you...
想约全球流量天菜ChatGPT一起发SCI文章?可以么?
研博论文

想约全球流量天菜ChatGPT一起发SCI文章?可以么?

它来了,它来了!ChatGPT迈大步闯进学术圈了!你还不醒醒?! ChatGPT火成什么样了?Sensor Tower数据评估了全球顶级应用程序月活用户达到1亿所用时间,其中Instagram用了30个月,TikTok用了9个月,而ChatGPT仅仅用了2个月。称它为全球流量天菜,不为过吧! 自从它出现以后,我发现隔壁实验室的菜博士已经不跟小伙伴们聊天和讨论了,整天对着电脑傻笑。 据说,菜博士跟ChatGPT天天一起写文章,貌似还准备投稿SCI期刊,难道是反应迟钝,限制了我的想象力?!不禁疑问3联,ChatGPT不是个“数字人”么?还能约着一起写文章?还能作为共同作者发文章啊?然而,菜博士竟然不是第一个想要跟ChatGPT成为搭档成为共同作者的人,当然也不是第二个…… 俗话说,这边为你开了一道门,那边就要给你关上一扇窗。 由于目前使用ChatGPT一类的人工智能工具,还没有出台相应的规范化使用界限准则,而学术期刊的领头羊们率先明确发布了一些约束措施,如Science期刊的主编说:“我们不允许AI被列入我们发布论文的作者,并且在没有适当引用的前提下,使用AI生成的文本可能会被视为剽窃”。 Nature期刊的主编也明确说明:“任何大型语言模型(LLM)都不会被接受为研究论文的署名作者。这是因为任何作者的归属都意味着对研究工作的责任,而人工智能工具不能承担这种责任”。 所以说用ChatGPT写文章这种事情,还是要严谨对待,人人都要为自己负责,可不能随意就让人家机器人背锅啊! 问: “约”了ChatGPT一起写论文,它写了好多内容,还帮我做了表格,但是它不能负责,所以不能放在共同作者这里,那放哪儿合适呢? ‍答:如果你“找”了ChatGPT一起写的这篇论文,因为它给了你很多帮助,对论文有不小的贡献,但是由于它就是个工具,不能为论文的idea和原创性负责,建议可以放在方法Methods或致谢Acknowledgements板块。 问: ChatGPT给科研工作者带来的好处? ‍答:免费科助,重点是不会疲惫,不管你让它工作模式是996还是007,都不会闹小情绪哦!如果你懂得怎么跟他提问题交流,并能从每次交流中判断出有用信息,你将变成它的“主人”,它会像个陪练一样,陪着你在科研路上锻炼出独立的批判性思维能力。 问: ChatGPT给科研工作者带来的隐患? ‍答:如果你不是想“利用”它,而是想“依靠”它,那随着你一次次的偷懒,一次次把该你思考的问题全权交给ChatGPT去“代理”回答,将会让你本就不聪明的脑袋越来越“麻木”,我相信不用多久,你也就问不出什么有意义的问题了。再说了,ChatGPT还喜欢一本正经的编故事,不具备良好的判断能力,被忽悠了都不自知的自以为是傻乐,就更不好了吧! 问: 都“约”ChatGPT一起写文章了,竟然还不知道人家全名吗? ‍答:Chat Generative Pre-trained Transformer P.S. 不带感情的中文直译:聊天生成式预训练变换器 好朋友给你“讲人话”的翻译:经过海量数据预先训练了的,可以跟你聊天对话的一个人工智能机器人。它可以根据你输入的问题或者一段文字,生成一段以假乱真像真人回复的内容。
经纬早班车|事关个人信息,又一国“盯上”ChatGPT;滥用自身地位?Meta摊上事
期刊论文

经纬早班车|事关个人信息,又一国“盯上”ChatGPT;滥用自身地位?Meta摊上事

 【隔夜重磅】 纳指三连跌 美东时间周三,美股三大指数收盘涨跌不一,纳指连续第三日下跌。具体来看,道指收涨80.34点,涨幅为0.24%,报33482.72点;纳指收跌129.47点,跌幅为1.07%,报11996.86点;标普500指数收跌10.22点,跌幅为0.25%,报4090.38点。多项经济数据显示出美国经济增长正走向放缓或衰退的潜在迹象。 据美国自动数据处理公司(ADP)于当地时间4月5日发布的月度全美就业报告显示,3月份美国私营部门就业人数增加14.5万人。该数据远低于此前机构预测的20万人,也远低于2月的26.1万人。 此外,当地时间4月5日,美国供应管理协会(ISM)公布数据显示,美国3月份非制造业采购经理人指数(PMI)为51.2%,低于2月的55.1%。非制造业就业指数为51.3%,低于2月的54%。 美股投资者对加息的担忧再次发酵,当地时间4月4日,美国克利夫兰联储银行行长洛蕾塔·梅斯特说,美国联邦储备委员会可能再次加息以抑制通货膨胀。 受相关消息影响,美股大型科技股普遍下跌,苹果跌1.13%,亚马逊跌2.74%,奈飞跌1.27%,谷歌跌0.24%,脸书跌1.51%,微软跌0.99%。 银行股多数下跌,摩根大通涨0.11%,高盛跌0.35%,花旗跌0.69%,摩根士丹利跌1.21%,美国银行跌1.25%,富国银行涨0.23%。 航空股集体下跌,波音跌1.83%,美国航空跌1.91%,达美航空跌1.36%,西南航空跌0.47%,美联航跌1.2%。 热门中概股多数下跌,中阳金融跌18.47%,有道跌15.61%,陆金所控股跌10.92%,亿航智能跌10.65%,新蛋跌7.63%,金山云跌6.08%,富途控股跌5.33%,新东方跌5.25%,世纪互联跌5.15%,爱奇艺跌5.14%;涨幅方面,聚好商城涨146.47%,能链智电涨11.97%,传奇生物涨4.08%。中概新能源汽车股全线走低,蔚来汽车跌2.61%,小鹏汽车跌1.57%,理想汽车跌2.94%。 又有一国“盯上”ChatGPT 当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对聊天机器人ChatGPT背后的OpenAI展开调查,该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。 目前OPC没有透露更多的调查细节。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。” 此前,3月31日,意大利的数据保护部门针对ChatGPT发出一项临时禁令,即日起禁止使用ChatGPT,并限制OpenAI处理意大利用户信息。 值得一提的是,在这个时间点上,近日,ChatGPT官网停止Plus付费项目的购买。在升级界面,OpenAI表示“因需求量太大暂停了升级服务”。 据悉,无法升级为付费版Plus并不会影响用户与ChatGPT正常对话,但免费版用户无法使用新款模型GPT-4以及测试版插件。 在此之前,ChatGPT的开发公司OpenAI陆续推出新的应用,包括多模态模型GPT-4以及能够联网的测试版插件,前者暂时仅向ChatGPT Plus的付费用户开放,后者优先考虑少数开发者以及ChatGPT Plus的付费用户。 二级市场方面,当地时间周三,美股AI概念股普遍走低,BigBear.ai跌18.28%,C3.ai跌超15.49%,SoundHound AI跌12.46%。 意大利反垄断机构对Meta展开调查 当地时间5日,意大利反垄断机构宣布,对Meta展开调查,以核实该公司在与意大利作家和出版家协会的音乐使用权谈判中,是否滥用了自身地位,并可能损害该行业的竞争。 意大利反垄断机构认为,Meta在与该协会的谈判中没有遵守透明和公平的原则,擅自终止谈判,削弱了协会的市场竞争力,限制了消费者的选择权利。 路透社的报道显示,上个月,拥有脸书、Whatsapp和Instagram的Meta未能与意大利作家和出版家协会续签版权许可。因此,自3月16日起,上述协会旗下所有歌曲在Meta平台上被屏蔽。 2022年韩国国家债务再创新高 据韩联社报道,韩国政府4日在国务会议上审议通过的《2022年会计年度国家决算报告》显示,2022年韩国国家债务为2326.2万亿韩元(约合人民币12.2万亿元),时隔一年再创历史新高。 具体来看,去年韩国国家债务为2326.2万亿韩元,较前一年增加130.9万亿韩元,增幅为6%。包括国债、公债、借款等固定性债务为907.4万亿韩元,较前一年增加10.9%;其他债务为1418.8万亿韩元,较前一年增加3%,其中包括用于支付公务员、军人养老金产生的负债规模,预计为1181.3万亿韩元。 韩国中央政府债务1033.4万亿韩元,地方政府债务34.2万亿韩元。由此,政府债务在国内生产总值(GDP)中所占比重为49.6%,较前一年上升2.7个百分点。按照统计厅2022年发布的韩国总人口数来计算,人均承担的政府债务为2068万韩元,首次超过2000万韩元。 大众宣布在美召回3.21万辆汽车 美国国家公路交通安全管理局近日披露,因三项独立故障,大众汽车集团正在召回3.21万辆汽车。其中,16207辆2023款ID4汽车车门可能会意外打开,增加受伤的风险;15874辆2022款TAOS汽车燃油输送泵可能会破裂,导致发动机突然熄火,从而增加撞车风险;19辆2020款奥迪Q7汽车的前置摄像头可能会过热,从而增加火灾风险。  【今日关注(北京时间)】 10:00 国新办就“更好发挥税收职能作用 更优服务经济社会高质量发展”举行发布会 20:30 美国4月1日当周初次申请失业金人数 22:00 美国圣路易斯联储主席布拉德发表讲话  【新股申购】 光大同创(301387) 申购代码:301387 发行价:58.32元/股 发行市盈率:35.83 上市地点:深圳证券交易所 主营业务:消费电子防护性及功能性产品的研发、生产和销售。...