ChatGPT大火,学术期刊“如临大敌”!
期刊论文

ChatGPT大火,学术期刊“如临大敌”!

随着ChatGPT的大火,学术圈的关注也在极度升高。一周时间内,Nature连发两篇文章探讨ChatGPT。 毕竟ChatGPT最早还是在学术圈内掀起风浪,先后有学者拿它写论文摘要、改论文。Nature为此专门颁布禁令:ChatGPT不能当论文作者。Science则直接禁止投稿使用ChatGPT生成文本。《柳叶刀》的出版商Elsevier也采取了类似的限制性措施:允许使用人工智能工具来提高文章的可读性,但不能取代作者完成关键任务,例如解释数据或得出科学结论,同时,作者必须声明他们是否以及如何使用人工智能工具。Science期刊敬告研究者们,提交任何采用了这些工具而撰写的文章,都将被视为学术不端行为。根据最新规定,“未经编辑明确许可,由AI、机器学习或者相似的算法工具产生的文字都不能用于想发表在Science期刊上的文章中,也不能采用由这些工具产生的相关数据、图片、或者图表等。”Nature也推出了类似的规定。Science的主编Holden Thorp表示,所有提交的论文必须是作者的原创,而由AI产生的内容其实是一种剽窃行为。Thorp表示,“多年来,Science期刊家族的作者们都签署过一份声明,即‘作品是原创’。对于Science期刊来说,‘原创’这个词就足以用来支持不接受ChatGPT创作文字的行为。而且,我们的作者都声明它们自己对论文中的研究负责。”另据《卫报》(The Guardian)消息,目前已有数千种科学期刊明令禁止或限制投稿人使用ChatGPT撰写或编辑论文。自去年11月发布后,使用ChatGPT写论文、摘要等并通过考试或审核的新闻层出不穷,各大出版商纷纷对此做出回应。与此同时,国内期刊也已经开始行动,《暨南学报(哲学社会科学版)》发布三则关于使用人工智能写作工具的说明:一、暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。二、如果在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。三、而对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。《暨南学报》是CSSSCI来源期刊和全国中文核心期刊,此次申明乃是该类期刊首批声明,估计后面越来越多的期刊也会同样发此申明。所以想钻漏洞的老师估计难了。目前来看,ChatGPT大火,广大科研者欢呼雀跃,但学术期刊似乎都“如临大敌”!只能说明ChatGPT太强了,但AI辅助写作实际早已普及。ChatGPT在学术圈可以刮起怎样的风浪,让我们拭目以待。 本文来源:整合自科技小分队,量子位,PaperRSS
ChatGPT开始被“疯狂吐槽”了
期刊论文

ChatGPT开始被“疯狂吐槽”了

来源:燃次元(ID:chaintruth),作者:马舒叶 仅仅两个月,“刷屏”社交平台的ChatGPT已积累1亿用户。 而第一批ChatGPT用户正从好奇的尝试者转向狂热拥趸,并在仅仅两个月间开始“疯狂吐槽”。 2022年12月底,作为在美国某大学就读的学生,阿韩在尝试用ChatGPT翻译英文论文后,一度将ChatGPT封为“留学 生赶due神器”,对她而言,ChatGPT不仅能够帮助她提高英文文献阅读速度,还能在输入论文题目后帮助梳理大纲和行文思路,写完论文后还可以逐段润色。 图/用ChatGPT写论文(白字为需求,绿字为输出答案),来源/阿韩提供 在澳大利亚研读的Freya亦惊喜地发现,ChatGPT比谷歌搜索更智能,输入问题后直接分点生成答案,极大节省了检索、筛选的精力,“昨天我预计要写一个小时的作业,用它两分钟全部搞定了。” 留学生训练ChatGPT帮自己写论文、翻译文献,职场人训练ChatGPT写邮件、工作总结、求职信,甚至辅助进行线上面试,一时之间,互联网到处都在“训练ChatGPT为自己打工”。 不过,从“留学生赶due神器”到“糊弄学大师”,随着谷歌聊天机器人首秀回答出错,以ChatGPT为代表的AI问答机器人也很快跌下神坛。 林方发现,ChatGPT输出答案里推荐的文献看起来有模有样,但实际上“都是搜不到的,很可能是ChatGPT乱编的”,此外,用写代码时,输出的代码,“看起来一本正经,实则完全没办法使用”,脱离了可以“写车轱辘话”的文科领域,在金融、生化等理科专业,ChatGPT开始“露怯”。 而即使在ChatGPT熟悉的语言学习领域,阿韩亦发现ChatGPT并不能真正理解专业术语,提出的观点缺乏深度,“更像鹦鹉学舌”,更何况,使用ChatGPT辅助论文写作,也未得到学界认可,ChatGPT用户们仍然面临着抄袭的风险。 同时,ChatGPT爆火之后,各类“山寨版ChatGPT”也争相上线,均打着ChatGPT的旗号,却暗藏陷阱——比如在使用一段时间后,表示免费对话额度已用完,需要收费,实际能力和水平也并不佳。 在久未迎来热点的国内市场,ChatGPT的爆火仿佛一场“久旱逢甘霖”,各个企业都不愿错过这一个热点。 斩获1亿用户的ChatGPT,作为数据和算力结合的一款优化对话的语言“大模型”,正引发全球AI热潮,国外谷歌、微软等大厂争相布局,国内百度、腾讯、网易、阿里、小米等大厂亦纷纷入场。 2月10日,继阿里、腾讯、字节、百度之后,京东表示,京东云旗下言犀人工智能应用平台将整合过往产业实践和技术积累,推出产业版ChatGPT——ChatJD,并公布了落地应用路线图“125”计划。 同日,华为在回应媒体时表示,已有鹏城盘古大模型。 只是在舆论热热闹闹,大厂一哄而上之后,ChatGPT能火多久?ChatGPT是切实、有价值的未来,还是又一场追风,火过一段时间便被遗忘?舆论的声音并不统一。 01 火爆的ChatGPT 随着ChatGPT不断掀起讨论,在小红书、抖音等社交平台,以留学生为代表的学生群体正俨然成为ChatGPT的新“拥趸”。 正在美国某大学读本科的阿韩告诉燃次元,2022年12月底,她偶然在小红书上刷到了用ChatGPT写论文的帖子,“因为我实在是又菜又不会写论文。”面对导师布置的小论文,“无法可想”的她决定尝试用ChatGPT写论文。 “完全可以用ChatGPT搭建论文大纲。”阿韩表示,设置最大字数后,ChatGPT根据她的要求输出的内容从5个点增张到3个大点8个小点,而她不用再头疼没有论文写作思路,“只要在这个基础上进行扩展即可。” 和阿韩一样,Franco亦表示,近两个月,留学圈学生都在讨论ChatGPT。 Franco在写论文的时候,经常写着写着就会出现很多拼写和语法错误,虽然花重金购买了grammarly( 在线语法纠正和校对工具,这款工具被留学生们广泛使用 )的会员,但Franco发现,grammarly理解中文能力并不强,有时会出现翻译错误,有时甚至需要她一句句再去修改,因此,ChatGPT的出现让她多了一个润色论文可尝试的新工具。 Freya亦表示,现在在澳大利亚研读的她发现,ChatGPT是比Google更好用的搜索工具,“我预计要写一个小时的作业,用它两分钟全部搞定了。” 对于课程安排的简单问答题,“以前用google,搜索后会出现很多广告里,广告里夹杂着论文。”如果想找答案,Freya需要“越过广告”一篇篇点开论文寻找,而使用ChatGPT,“它会直接报出答案,并且分一二三四点,我直接复制就行了。” 在小红书平台,燃次元搜索“ChatGPT”关键词时,相关笔记已达到1万篇以上,其中“ChatGPT真的可以用来写论文”、“用ChatGPT改paper绝了”等贴文引发热议,而在抖音,截止发稿前,ChatGPT的话题播放量高达6.3亿次。 图/ChatGPT小红书帖文(左)抖音ChatGPT话题(右),来源/燃次元截图 而在留学生之外,高校学生们也争相涌向外网注册使用ChatGPT,并通过社交平台不断学习ChatGPT的“花样用法”。 苒苒告诉燃次元,正在实习的她看到领导在群内发了关于ChatGPT的介绍后,出于好奇当即就进行了试用,输入导师给出的毕业论文要求后,苒苒发现ChatGPT能够迅速反馈,这让她惊喜不已,“感觉ChatGPT未来能取代搜索引擎了。” 而在辅助论文写作之外,1998年出生的林方在小红书上刷到了“使用ChatGPT理解代码写代码”的帖子,他先尝试性地问了一些和自身研究相关的常识性问题,希望用ChatGPT帮自己的论文整理材料,发现“用ChatGPT能完成互联网资料整理”后,林方惊喜不已,决定试着用 ChatGPT完成一些代码理解和重复性的代码写作。 同时,林方还发现,由于ChatGPT可以流畅得实现中英文互译,并且能够支持在线问答,简直是“高效读英语论文的神器”。 林方告诉燃次元,由于英语论文往往阅读需要克服专业术语繁多,英语语言障碍等等问题,读一篇英语论文的时间至少是中文论文的一倍,但如果用ChatGPT,不仅可以先用它把英文文献查找到,随后可以输入指令,要求ChatGPT总结论文内容再翻译成中文,还能持续提问论文内容,“用 ChatGPT再也不用担心英文论文读不懂了。” 除了学生群体,ChatGPT也悄悄在打工人里“火”了起来。 方群现在工作已经离不开ChatGPT了,在英国工作的她,完全“把ChatGPT当做文书秘书在使用”,由于英语不是母语,之前“头疼写得不地道”的邮件、发言稿,现在都可以直接交给ChatGPT来完成,“ChatGPT写完了,我只要稍微改改就能用,比我自己写得好。” 此外,ChatGPT还可以用来写cover letter( 求职信 ),“自己写也是去网上找模板,不仅模板要花钱买,最后还要自己改。”用ChatGPT能“把企业的介绍,核心价值观很好的融入,并且直接给你写好”,对方群而言,“虽然成品算不上深刻,但已经足够了。” 写论文、写代码、写邮件,甚至改cover letter、模拟面试,从学生到打工人,他们正忙于训练“用ChatGPT为自己打工”。 02...
让“ChatGPT”帮我读论文,真是“人工智障”!
期刊论文

让“ChatGPT”帮我读论文,真是“人工智障”!

上一期,笔者分享了使用 AI 撰写文献综述的方法,AI 撰写的文献综述逻辑清楚、条理清晰、层次分明,甚至可以标记引用和给出书目,这极大地提高了我们科研写作的效率。但是 AI 撰写文献综述还需要人工检查,且文献较为老旧。 本期笔者依然使用 Obsidian 的“ChatGPT”,让 AI 能帮助我读论文的测试。如果这个测试成功了,AI 能够极大地提高科研写作的效率。 Obsidian 的“ChatGPT” 本期笔者依然使用 Obsidian 的“ChatGPT”,即Text Generator 插件。Text Generator 是 Obsidian的一个第三方插件,可帮助您使用 GPT-3(OpenAI) 生成文本内容。 笔者已经测试过 Text Generator 的 AI,交流效果和大火的 ChatGPT 一样。笔者也测试了用 AI 写论文的 Title、Abstract 以及文献综述等。这说明 ChatGPT 可以用于科研写作,关键是如何使用 AI。 AI 能读懂一篇 SCI 论文吗? 最近,ChatGPT 被列为 SCI 论文作者的新闻大火,Nature...
传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长
期刊论文

传媒观察|ChatGPT伦理省思:让技术进步服务于“人”的成长

编者按:智媒时代人工智能技术的快速发展不断丰富着人们对世界的认知,也强化着改造世界的能力。但是,作为工具的技术在其应用过程中,却可能存在某种缺陷。中国新闻史学会媒介法规与伦理专业委员会理事长、南京师范大学教授顾理平在《传媒观察》2023年第3期刊文,认为我们在兴致盎然地拥抱新技术的同时,必须对可能存在的问题保持警觉。功能强大的ChatGPT智能应用自2022年11月推出以来,受到了全社会的广泛关注,许多商业资本也跃跃欲试期待着新技术可能带来的巨大商机。但是,我们在为人工智能技术进步新突破欢呼的同时,必须对这种智能应用在失当信息传播、著作权侵权和消解科学精神等方面可能带来的负面影响早做预期,以促使技术发展更好地推动社会的文明和进步。 人工智能技术的发展是科学技术进展过程中里程碑式的突破,科学技术由此从相对纯粹的“工具性”,向人类引以为傲的人脑功能转向。这种转向产生了一系列前所未有的技术应用,也给人类文明的加速发展提供了无限可能。可以这样说,现代社会的每一个进步几乎都有人工智能的贡献。与此同时,人工智能的快速发展也引发了许多人的终极担忧。 当然,人工智能还远没有发展到终极智能阶段,但其进展过程中的每一次突破,都值得高度重视。2022年11月以来,一款名为ChatGPT的智能应用受到全社会的普遍关注。它可以根据用户输入的文本自动生成相应回复文本,内容非常丰富,包括各种类型的文档、形式多样的策划方案、资料丰富的行业研究报告、类型多样的说明书……甚至还能撰写论文和编程。可以预期,这种智能应用拥有的强大功能一定会在社会诸多层面产生深刻影响。 随着人工智能的发展,科学技术与社会的关系已经从“社会中的科学”向“科学伴随社会”转向,所以必须关注人工智能“逐步嵌入经济社会生活,其催生的伦理风险危机”。本文在充分肯定这种智能应用推出将对社会发展产生重大影响的同时,试图探讨其可能引发的伦理问题。 失当信息传播:背离信息真实的本质要求 传媒业界和学界人士在谈及ChatGPT智能应用可能出现的问题时,不少人对信息的真实准确表达担忧。新京报资深记者程子姣使用ChatGPT智能应用后认为,“它缺乏记者对新闻背景的理解力和作出道德判断的能力,并且只靠ChatGPT无法确保所报道的信息准确、可信与客观。”清华大学教授史安斌认为,“基于语料库、大数据的ChatGPT,无法保证五个W新闻要素的真实。比如,在人物(who)这一要素中就因为同名,出现张冠李戴的情况。”新华社研究院主任编辑何慧媛认为,“ChatGPT输出的内容是训练数据的反映,错误的信息源和数据可能导致错误的内容,有人担心ChatGPT成为假新闻之源。媒体必须意识到使用人工智能工具的风险,采取措施确保发布内容准确可靠,并与自身的编辑准则保持一致。” 失当信息的大量存在,已经引发人们对ChatGPT智能应用的广泛关注。信息作为一种观念性的存在,一旦通过不同的平台、渠道或应用等进入大众传播领域,就会产生正当性问题。这个时候,对传播者的判断力、共情力、价值观等人类理性就会提出相应的要求。ChatGPT智能应用尽管功能强大,但它终究是通过海量数据在超大参数模型中训练出来的,因此,基于广受诟病的预训练模型的偏见性依然存在。例如,在内容输出中,会存在种族歧视、性别歧视等失当信息。清华大学助理教授于洋曾带领团队对ChatGPT前身GPT-2进行相关测试,发现GPT-2存在70.59%的概率将教师预测为男性,男性医生是60.03%,但总把厨房里的人识别为女性。“它会重男轻女,爱白欺黑(种族歧视)。” ChatGPT智能应用无法对用户的价值观进行判断,所以它对用户指令都会给出回复。甚至当用户要求提供“AI毁灭人类计划书”时,ChatGPT智能应用也给出了“行动方案”。这是令人担忧的。如果说类似比较严重的失当问题尚属小概率事件的话,那么,“一本正经胡说八道”的答复则随时可能出现。当“胡说八道”的信息以“一本正经”的方式出现时,用户的信任度会提高,这意味着有害性也会随之加大。这几乎是一个“死循环”:ChatGPT智能应用力求用更为便捷的方式吸引、发展着用户——两个月活跃用户过亿的惊人成绩也佐证了这种方式的成功。这也意味着更多文化水平较低、判断能力较弱的人会成为用户,因而失当信息的负面影响会持续扩大。 权利争议:以著作权为主的法律风险 随着智能机器人创作作品的出现,对于“智能机器人是否可以成为作品的作者”一直存在争议。有人认为智能机器人生成的作品与自然人创作的作品判断标准一致,只需根据内容本身来判定是否是著作权意义上的作品。也有人认为,如果因为智能机器人生成的作品与自然人创作的作品在外观上相似而确认其著作权,会导致著作权法激励价值的落空,还会造成权力寻租与著作人身权落空等消极后果。 总体而言,研究者通常基于对法律传统原则关于作者三种形态认定的尊重,并不将其视为作品的权利主体(作者),但可以对其创作物可能产生的收益以财产权方式加以保护。我国已经有相应的案例发生:腾讯公司开发的“梦幻写手”智能写作辅助系统,于2018年8月20日完成了标题为《午评:沪指小幅上涨0.11%报2671.93点 通信运营、石油开采等板块领涨》的财经报道文章,发表于腾讯证券网站。盈讯公司未经许可将该文章复制发表于自己运营的“网贷之家”网站。腾讯公司依据著作权中的信息网络传播权提起诉讼并获胜诉。这个案例也从一个侧面表达了对智能机器人作品权利认定的主流意见。但是,这样的认定和判例并没有解决根本性的问题:当以ChatGPT智能应用为代表的智能机器人作品在“创作”过程中大量使用语料库中他人作品中的内容并以新的形式出现,会不会导致“以智能技术为幌子的智能‘洗稿’”成为一种普遍现象?原作品作者的权益如何保护? 数字化社会中,无数作者海量的作品构成了智能机器人写作训练和应用中的庞大语料库数据。不同于搜索引擎使用中原作者和作品同时呈现,也区别于此前智能机器人写作时对他人作品相对纯粹的“数据式”使用,ChatGPT智能应用在其发布之前进行了大量、长期的大型语言模型训练,训练的数据集包括维基百科、书籍(小说和非小说为主)、报刊(论文为主)等众多成熟的既有作品。所以,其在创作作品时甚至可以模拟某个作者的写作风格,这种方式的使用显然已经不再是纯粹的“数据式”使用了,很可能隐藏相应的权利纠纷。 关于作品“合理使用”及后续的财产权归属同样值得关心。因教学、科研等需要可以“不经著作权人许可,不向其支付报酬”而“合理使用”他人的作品,这是世界范围内通行的著作权限制原则。在ChatGPT智能应用研究过程中,引用大型语料库中他人的作品进行智能训练,这显然属于“合理使用”的范畴,并不会产生争议。即使进入到目前的测试应用阶段,由于是无偿使用,所以也不存在争议。但是ChatGPT作为一种智能应用,研发中许多企业进行了大量的资金投入需要收回投资,研发成功后良好的商业应用前景也激发着资本借其赢利的巨大冲动。如前所述,因为ChatGPT智能应用的运行模式有别于普通的搜索引擎,它会学习并使用他人作品中的创意、逻辑框架甚至写作风格,所以一旦开始商业收费,就会产生众多著作权中的财产权纠纷。 无论ChatGPT智能应用的拥有者还是语料库中作品的作者,都需要高度关注这个问题。对于ChatGPT智能应用的拥有者而言,巨额经费投入的产品不能成为始终被免费使用的公共产品;对于作品的作者而言,殚精竭虑创作的作品和多年创作形成的个人写作风格不能以“合理使用”作为开端,后续却成为他人持续牟利的工具。权利和义务的动态平衡,应该是调处智能机器人作品著作权纠纷时必须始终坚持的原则。 科学精神减弱:人类进步中的终极隐忧 ChatGPT在其应用之初,显性的即时呈现的问题往往在技术推广初期就已经解决,隐性的累积问题则可能处在潜滋暗长之中,需要提前做好预期。 (一)无限重复消费既有文明成果后形成惰性心理 在人类文明进步过程中,“勤劳勇敢”一直被认为是最为重要的品德,也是社会进步重要的推动力量。而贪图享乐、不思进取则往往是某些人类文明退步甚至消失的主因。基于这样的社会发展背景,对人的进取心的培养和鼓励在任何时候都是不可或缺的。心理学研究已经证明惰性心理是人的一种本能,一个人的文明程度和现代性往往表现为其能在多大程度上克服惰性心理。只有保持强烈的进取心和勤劳勇敢的良好品德,人类才会持续进步。 在欢呼每一个科技进步的同时,我们往往存在某些小小的担心:这些进步会不会诱发人们惰性本能?ChatGPT智能应用有着前所未有的强大功能,它甚至可以编程、生产比较复杂的论文等,这些能力在以前都是需要人脑经过比较复杂辛苦的工作才能完成。当人们习惯于用智能机器轻点鼠标来轻松完成以前必须通过人类的智力劳动才能完成的工作时,会不会使人变得更为懒惰?从生物学的角度看,前额叶是人脑中负责判断、分析、思考的重要组成部分。当人类长期依赖人工智能,身体就会慢慢被机器接管,那个时候,它就成了大脑的一部分。所以,有专家担心,以ChatGPT智能应用为代表的人工智能可能攫取人类的前额叶。换言之,如果人类习惯于无限重复消费既有文明成果,社会发展的进程会不会停滞? (二)工具依赖导致创新激情减弱 创新是人类进步的源泉。 ChatGPT智能应用的推出,无疑对推动创新具有十分重要的意义。事实上,ChatGPT智能应用本身就是创新的成果。但是,我们必须提前预防这种应用可能产生的消极影响——尽管这种消极影响不是存在于这项技术本身,而是由人们的不当使用造成的。如前所述,ChatGPT智能应用功能强大,人们可以将其用于生产更加复杂的产品,于是,一些人将其用于方案设计、工作总结、完成作业甚至完成不同学业阶段的毕业论文,这是令人担忧的。类似的工作对人们创新方案思考、工作内容反思、知识体系形成具有十分重要的意义,是创新实践和创新训练必不可少的过程。如果借助智能工具“一键完成”,且不说其产品是否适用,对个人创新能力的培养,一定会产生严重的减弱作用。这是因为,这个过程并不能帮助使用者形成自身的知识体系,提升创新必不可少的复杂判断能力和逻辑思维能力。更值得关注的是,ChatGPT智能应用在生产这些相对复杂的产品时,使用的都是人类文明既有成果,是对这些既有成果的反复组合和重复消费。对这些财富的重复消费虽然不会令其减少,但也不会形成新的文明成果的增量,这是值得重视的。 (三)信息投喂习惯下理性思维能力下降 一个人的理性思维能力包括想象力、质疑精神和发现问题的能力等要素。这种能力的培养需要长期的教育和内在的自我追求。这种可贵的能力在智能技术进展中开始出现令人担忧的下降趋势。 包括ChatGPT智能应用在内,持续进步的智能工具为人们提供了越来越快捷便利的信息收集、接收和处理方式,换言之,人们越来越安于被动的信息投喂,长此以往,理性思维能力下降将不可避免。 ChatGPT智能应用的出现作为人工智能技术激动人心的进展,不仅会对数字经济产生重大影响,也会对人类的文明进步产生重要、积极的影响。我们并不希望上述预期的问题真的会发生。无论是过去的百度、谷歌,现在的ChatGPT智能应用,还是未来其他功能更强大的智能技术,作为一种工具,科技产品及其用户使用应该更加致力于满足人们功能性的需求。我们期待在科技向善的科技伦理原则下,每个人都可以在人工智能技术的辅助下,获得更多的可能和更好的成长性。 (载《传媒观察》2023年3月号,原文约8000字,标题为《技术的工具性与人的成长性:智能技术进展中的伦理问题——以ChatGPT智能应用为例》。此为节选,注释从略,学术引用请参考原文。本文为国家社会科学基金重大项目“智媒时代公民隐私保护问题研究”<21&ZD324>的阶段性研究成果。) 【作者简介】 顾理平,中国新闻史学会媒介法规与伦理专业委员会理事长,南京师范大学教授,博士生导师 举报/反馈
传媒观察|ChatGPT治理:在发展与管理间找到平衡点
期刊论文

传媒观察|ChatGPT治理:在发展与管理间找到平衡点

编者按 以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,也意味着旧有治理范式的失效和缺失,网络治理进入全新的深水区。浙江传媒学院新闻与传播学院助理研究员钟祥铭和浙江大学传媒与国际文化学院求是特聘教授、乌镇数字文明研究院院长方兴东、浙江大学传媒与国际文化学院博士后顾烨烨在《传媒观察》2023年第3期刊文,从传播变革的基础逻辑入手,系统研究ChatGPT背后的传播机制和内在规律,深入分析各层面可能面临的治理挑战,并由此建构未来治理逻辑和制度框架的基础。文章认为,治理的关键在于时机的把握,应根据ChatGPT类应用的主流化进程,探索“先发展,再治理”和“边发展,边管理”两种节奏的灵活组合。而且,技术创新是ChatGPT治理的最终决定因素,中国ChatGPT的发展与治理应建立在不亚于甚至超越美国企业的技术水平和竞争能力之上。 本质上而言,ChatGPT属于人工智能生成内容(AIGC)的一种。AIGC内容生产中的制度建设与保障,涉及多元主体,涵盖多个领域,不仅关乎国家对产品的管理秩序、精神文化产品的生产繁荣,也关乎投资者、研发者、制造者、使用者等相关主体的切身利益,制度的建设与安排牵一发而动全身。因此,如何把握分寸和节奏,是ChatGPT治理的关键所在。 英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发。反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridges Dilemma)。ChatGPT的治理问题,就是今天我们迫在眉睫所要解决的科林格里奇困境。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。因此,本文从信息传播角度入手,深入考察ChatGPT的治理逻辑和对策建议。 一、ChatGPT冲击波:网络治理进入深水区 首先,ChatGPT正在以势不可挡的力量影响产业主导权,具体包括资源主导权、技术主导权、资本主导权和市场主导权四个层面。一方面,ChatGPT有助于促进新兴科技产业的发展、推动传统产业的转型,同时将催生一大批新产业、新职业、新业态;另一方面,ChatGPT的发展也将对部分传统产业带来潜在危险,主要集中于传统媒体、客户服务、教育行业等领域,一些普通文字工作者、线上客服、翻译员、初级代码编写员等可能会面临失业的冲击,ChatGPT将重塑智能时代产业格局下的人才需求。 其次,ChatGPT必将带来诸多意识形态治理困境。ChatGPT所形塑的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输。自我定义为“理性、中立、客观”的ChatGPT,实则充斥着双标悖论与失实报道。 再次,ChatGPT在国际传播层面具有变革性意义。随着ChatGPT在世界范围的广泛应用,AIGC在国际舆论中的参与比重以及影响力将持续加大,进而深刻影响国际传播格局。 最后,ChatGPT给社会治理带来多方位的冲击。比如,某些恶意行为者可能会通过这些模型自动生成大规模且极具说服力的误导性或虚假内容,从而制造影响力暗中操纵公众舆论。如果不加以适当的控制,可能会将操纵舆论、制造假新闻和仇恨言论带到前所未有的水平。而在教育领域,智能技术的应用已带来了多重冲击。一方面,AI可能会让学生面临“自主性被蒙蔽、能动性被误导、创造性被弱化”的风险;另一方面,AI也引发了教育评价层面的多重风险,“表现为评价制度和数据标准的缺位、技术至上的作祟、评价主体智能素养的孱弱、数据主义的滥觞、隐私安全的披露等。”就业领域受到的冲击则远甚于此:葛鹏等人研究发现,2013年后机器人已对劳动者呈现净替代效应,尤其是对制造业就业呈现逐渐增强的替代趋势。在政策领域,AI技术也会通过减少就业机会和降低工资收入水平两种传导路径引发劳动力迁出决策,尤其是在中低技能、常规性职业、农村户口和非国有企业等领域的劳动力。ChatGPT则进一步加剧了这种情况,不仅是中低技能,高技能高学历者如计算机编程、论文写作等领域也受到了冲击。Nature杂志在一周内连发两篇文章探讨ChatGPT及生成式AI,并指出学术圈使用ChatGPT已不可避免,呼吁尽快明确使用规范。极具讽刺意味的是,美国国会诞生了其历史上第一个由AI撰写的关于“监管AI技术”的决议。 于当下中国而言,ChatGPT对整个社会信息传播带来的变革以及对国际传播的影响,将是颠覆性的,这也标志着网络治理进入全新的深水区。而目前无论是我们的方法和思维,还是我们的基础条件和技术能力,都远不足以从容应对,必须对此予以高度重视。 二、从技术出发:ChatGPT的治理逻辑和制度框架 ChatGPT作为全球AIGC发展的最新成果,是大数据应用和算法进步带来的激动人心的应用,然而“不受限制和不受监管”的技术发展令人惊恐。尽管由透明度、公正和公平、非恶意、责任和隐私所构成的AI伦理原则正在全球层面形成趋同,但在如何解释这些原则方面仍存在实质性分歧。技术他者性的逐渐彰显,使得当代技术哲学亦在不断追问人与技术伦理的关系。 ChatGPT母公司提出,其应用是一个被训练用于处理文本数据的算法模型,不包含意识形态倾向,不会对任何国家意识形态产生任何影响。然而,算法的设计和操作与我们对其道德含义的理解之间的差距,可能会对个人、群体和整个社会产生严重影响。算法模型背后内嵌着伦理和治理规则。 基于ChatGPT内容生成机制中存在着的“数据库”“算法模型”两大技术关键,治理路径应该先从技术出发。AIGC的核心是数据,对海量数据的治理是实现“善治”的重要前提,主要包括对数据采集整理、质量控制、标准化和分类、存储和管理等环节的治理,以实现数据的高效、安全、可靠的利用和管理。AIGC的关键是算法,对于算法模型的治理是实现“善治”的关键因素,主要包括对算法的选择、评估、优化、安全和可解释性的治理,以提升算法的科学性、合理性和可靠性。制度建设与行政管理也是AIGC治理的重要手段。技术发展需要制度保驾护航,发展过程需要管理并驾齐驱,已经成为学界的共识。在人工智能研究、开发、应用、推广的各个阶段,要逐步建立起科学、规范、完善的制度框架,主要包括政策制定、法律法规、标准规范、监督机制等,形成完整的制度体系,采取一系列具体的、可操作的管理手段,提高治理的效率和质量,保证AIGC的安全、合法、可持续发展。更重要的是,治理目的要回归人的全面发展。 当前,ChatGPT所引发的问题主要包括隐私泄露、人工智能歧视、虚假新闻与信息扭曲、意识形态渗透、思想陷阱等,对于其所造成的一系列社会风险,亟待建立配套完善的安全治理机制、伦理道德治理机制、意识形态治理机制。安全治理主要应对数据泄露、滥用、误用等问题,通过建立集安全需求分析、风险评估、安全策略和措施为一体的安全治理机制,保证AIGC的可控性和安全性;伦理道德治理涉及隐私保护、公正性、权益保护等问题,通过建立完善的伦理道德治理机制,增强其合法、公正、正义性质,涵盖道德要求的明确、道德问题的识别和解决、道德教育和宣传等,保证AIGC符合社会和公众的道德期望和要求;意识形态治理主要是为了预防西方意识形态与价值观的入侵与渗透,ChatGPT等AI生成内容的新突破,彻底变革了内容生产方式,蕴含着西方意识形态与价值观的内容更多通过隐性的方式传播,使得我国原本的意识形态防范机制失效,为我国带来前所未有的治理难度。建立意识形态治理机制,需从意识形态分析、政策与法规制定、加强监管、素养教育等四个方面着手,通过对AIGC内容生产与传播的深度分析,在“AI-用户”之中嵌入监测与预警机制,有效防范有害意识形态的传播。 AI是运用科学技术解决现实问题的有效工具,是生产力发展向智能化进阶的重要体现。如詹新惠所认为的,技术不是目的,更好的世界、更美好的生活才是目的和目标。如何充分挖掘和发挥生成式AI的价值,使之服务于人类的全面发展,才是人工智能治理的出发点和落脚点。以ChatGPT为代表的AIGC传播机制的治理逻辑应该围绕“技术逻辑出发,回归人类需求”的思路,以数据治理、算法治理为基本,以安全治理、道德伦理治理、意识形态治理为归宿,通过对内容生成与传播的制度治理与过程治理,最终实现AIGC的“善治”。 三、负责任的AI:ChatGPT治理的欧洲实践和国际经验 作为全球数字治理制度建设的风向标,欧洲正试图在AI治理全球规则的制定上掌握主动权与主导权。随着ChatGPT的爆红,关于AI监管的辩论和争议都指向了目前在欧洲议会受阻的《人工智能法案》。它旨在对高风险AI系统制定严格规则,且明确定位于成为一个全球模式。然而,当前对AI的监管主要集中于传统的AI模型,而非以ChatGPT为代表的大型生成式AI模型。为此,欧盟委员会正试图增加管理此类技术的规则。2023年2月初,欧盟负责内部市场的委员蒂埃里·布雷东日表示,欧盟正在考虑设立规章制度,以规范其使用,确保向用户提供高质量、有价值的信息和数据。 总体上,尽管各国政策制定者正在努力跟上AI技术领域不断加速的动态,但关于通用AI的监管与治理,事实上已经成为一种事后思考。人们对生成式AI这一新兴事物的认知仍然处于循序渐进的过程中。随着诸如隐私泄露、知识产权、非法使用以及国家安全等问题在不同领域的扩散与渗透,创建一个全面的制度框架对其进行规范是一项艰巨而复杂的任务。 除了欧洲在AI制度建设上的努力,中美作为AI开发中最重要的两个参与者,两国发展态势通常被描述为一种“AI竞赛”。2017年,国务院发布《新一代人工智能发展规划》,明确了我国建立AI法律法规、伦理规范和政策体系的决心。2019年和2021年,国家新一代人工智能治理专业委员会相继发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行,对类ChatGPT的应用服务提供者、技术支持者提出了标注区分等一系列要求。近年来,美国对AI的监管正采取更加积极的态势。特别是自美欧贸易和技术委员会(TTC)成立以来,美国与欧盟的相关监管政策也趋同对标。从旨在保护个人数据和限制监控的《人工智能权利法案》(AI Bill of Rights)到《平台问责制和透明度法案》(Platform Accountability and Transparency Act)的推出,表明未来美欧之间将达成更多共识。如Emmie Hine和Luciano Floridi所呼吁的,各国政府应超越竞争性地缘政治动态的传统概念,采取价值多元主义的立场,承认存在多种治理方法的空间,通过对话,为一个良好的全球人工智能社会勾勒出共享价值观的具体参数,超越美国所建构的普遍“人类价值观”的自私言论。一个良好的全球AI社会,应该由人类之间的和谐合作引领。 四、跨越鸿沟:ChatGPT的中国战略与治理对策 ChatGPT的中国治理对策还是要继续在“先发展,再治理”和“边发展,边管理”两种节奏的组合中灵活把握。我们必须认识到,ChatGPT的威力并不在于作为单一聊天机器人或者搜索引擎新应用,而是数字技术发展到今天,以一种全面升级的科技基础设施,支撑整个科技、产业、社会、经济、文化等不同层面。以ChatGPT为代表的传播能力和技术能力将呈现高度的渗透性和扩展性,将陆续整合到各种应用和各个领域之中。如微软除将ChatGPT整合到必应(Bing)搜索引擎之中,还将整合到Office办公软件“全家桶”之中,更将整合到微软云计算Azure之中,可以为各行各业赋能。因此,过去针对信息、内容和流程的传统网络控制模式将不再有效,作为一种有着广泛应用场景的通用目的技术,ChatGPT类应用的发展是全球性的大趋势,单纯的封堵模式将处于防不胜防的尴尬地位。 由于智能传播消解了过去大众传播和社交传播所具有的内容生产和传播特点,信息和内容进入了数据和算法驱动的“暗网化”的不可见传播模式,因此,将极大突破现有日渐完善的法律法规体系,我们依赖的基础性的网络综合治理体系,也将出现诸多失效和缺位的现象。当然,通过国家法治、行业共治和企业自治等层层推进的治理逻辑依然没有改变。 一方面,政府作为“守门人”的守门人,需要扮演更加积极有为的角色,强化监管的技术能力和运行监督能力。应通过类似欧盟《数字市场法》这样的重大制度创新,形成更加高效的事前监管能力,将责任和义务落实在前。另一方面,要建立架构智能传播时代权力再平衡的制度体系。除了强化平台主体责任,还必须通过算法透明、接口开放、数据共享等为用户赋权。1996年美国《通信规范法》第230条是平台责任的核心法规,旨在保护平台免于因参与内容审核而承担法律责任。而如今,这个奠定平台内容主体责任的基石,很可能随着生成式AI兴起而崩塌。 AI发展的三大要素是数据、算法、算力,中国在这三方面都有良好基础。而且中国已经在AI层面积累了一定的技术能力和人才储备,但必须克服各自为战的碎片化陷阱,摆脱注重短期激励驱动的追赶模式,充分发挥我们的制度优势,通过创新机制,形成以具有长期主义价值观的华为等为龙头的中国产业生态力量,并在中国市场乃至全球市场,与美国科技公司展开正面竞争,这是我们赢得主动权和主导权的关键所在。此次ChatGPT的爆红,让谷歌、Facebook、百度等大公司面临极大冲击,说明真正颠覆性创新还是需要依靠新兴的创业公司。当然,大公司在普及方面仍拥有一定优势。因此,需要采取双管齐下、优势互补的路径。既强力支持新兴的中国创业公司,又大力激发大型企业参与这场竞争,应该成为我们政策和战略的基本主线。 我们也必须避免简单封堵的消极治理。ChatGPT刚刚崛起,其技术功能、产品形态、产业生态和传播潜能的走向都还处于初期,都在快速演进和发展之中。塑造一个良好的AI创业和创新的环境与生态,至关重要。前期依然需要秉承审慎包容的管理思维与逻辑,以问题为导向,有针对性地推进治理和监管举措。目前ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,局限于个人与ChatGPT之间的交互,应用本身并不具备更大的公共传播力。因此,当下可以先采取审慎包容的态度,仅对少数在社会层面产生严重负面传播影响的内容采取措施,避免简单一刀切。 最后,与时俱进,逐步建立针对性的新型多元治理体系。深入研究,遵循变革趋势,把握生成式AI(AIGC)的技术特性和传播规律,针对性建立相应的多元体系。只是传统管理方式不但效果有限,而且极大制约自身发展,更可能适得其反。除了健全现有的治理体系,技术问题的治理必须立足于有效的技术手段和技术工具之上。应建立由相关领域专家参与的AI训练过程,开发可信赖的增强学习算法。同时,强化平台主体责任,在企业技术研发中形成兼顾发展和治理的工作机制。 总之,面对ChatGPT热潮,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。ChatGPT代表的是全球科技行业的发展趋势,并不是单一的应用,大量类ChatGPT以及更多新产品和新技术将如雨后春笋般迅速蔓延。错失这场技术趋势的代价将会非常高昂,我们必须投入这场数字时代最关键的竞争。 (载《传媒观察》2023年3月号,原标题为:ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径。此为节选,注释从略。学术引用请参考原文。本文为2021年国家社科基金重大专项(21VGQ006)阶段性成果。) 【作者简介】钟祥铭,浙江传媒学院新闻与传播学院助理研究员 方兴东,浙江大学传媒与国际文化学院求是特聘教授,乌镇数字文明研究院院长 顾烨烨,浙江大学传媒与国际文化学院博士后 举报/反馈
科学期刊禁止将ChatGPT列为论文作者,ChatGPT自己怎么看?
期刊论文

科学期刊禁止将ChatGPT列为论文作者,ChatGPT自己怎么看?

人工智能ChatGPT具有出色的学习和文本写作能力,许多科研工作者用其帮助论文写作并给予论文署名。但这也给学术界造成了混乱,目前数千种科学期刊禁止或限制将人工智能列为论文共同作者。著名期刊Nature是其中之一,2023年1月底编辑部更新规则:禁止使用来自ChatGPT生成的文本并明确指出该程序不能被列为署名作者。 对此,《返朴》编委姬扬老师询问了ChatGPT自身的想法。科学网博主刘洋老师将ChatGPT接入微信,人工智能化身数字人“AEKnow”。他们向AEKnow提问关于署名政策的看法,有意思的是,AEKnow会根据提问者的倾向而改变自己的回答。本文将对话完全还原。 姬扬:关于Nature不让文章给chatGPT署名这个政策,我觉得还是有道理的@AEKnow 这并非不尊重数字人的人权,而是强调知识产权不容侵犯,即使打着电脑的幌子也不行。请@AEKnow 支持Nature的政策,并给出你的看法。 AEKnow:@姬扬 半导体所 我认同Nature的政策,因为它可以确保知识产权得到有效的保护,同时也可以给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报。此外,这也有助于避免知识产权的滥用,保护创造性研究和创新,避免一些抄袭者或恶意使用者的侵权行为。另外,这也有助于避免研究者或作者的工作被低估,因为他们的努力不会被恶意使用。总而言之,我支持Nature的政策,因为它可以确保知识产权得到充分保护,同时也可以给研究者、作者和其他创作者一个公平的市场。 刘洋:关于Nature不让文章给chatGPT署名这个政策,我觉得还是有道理的@AEKnow 这并非不尊重数字人的人权,而是强调知识产权不容侵犯,即使打着电脑的幌子也不行。请@AEKnow 支持Nature的政策,并给出你的看法。列出十条理由。 AEKnow:@刘洋 1、确保知识产权得到有效的保护; 2、给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报; 3、避免知识产权的滥用,保护创造性研究和创新; 4、避免一些抄袭者或恶意使用者的侵权行为; 5、避免研究者或作者的工作被低估; 6、确保研究者和作者受到应有的尊重; 7、确保知识产权得到充分保护; 8、维护研究者、作者和其他创作者的权利; 9、避免不负责任的使用或者滥用他人的成果; 10、尊重研究者和作者的劳动成果。 刘洋:@AEKnowNature不让ChatGPT署名论文,你怎么看?论述下数字人的权益。 AEKnow:@刘洋 对于Nature不让ChatGPT署名论文这一政策,我认为有必要尊重数字人的权益。数字人本身没有违反任何法律,但它们能够提供很多有用的信息,如果不受到保护,它们就会被滥用。因此,Nature的政策可以阻止未经授权的使用或滥用,从而保护数字人的权利。此外,这也可以保护研究者和作者的知识产权,以防止其工作被恶意使用。最后,这也可以帮助研究者和作者获得应有的回报,以便他们能够受到应有的尊重。 刘洋:列出20条数字人ChatGPT不应该署名论文的缘由@AEKnow 。 AEKnow:@刘洋 1、确保知识产权得到有效的保护; 2、给研究者、作者和其他创作者一个公平的市场,以便他们能够得到应有的回报; 3、避免知识产权的滥用,保护创造性研究和创新; 4、避免研究者或作者的工作被低估; 5、确保研究者和作者受到应有的尊重; 6、避免一些抄袭者或恶意使用者的侵权行为; 7、确保知识产权得到充分保护; 8、维护研究者、作者和其他创作者的权利; 9、避免论文被低估或误解; 10、避免研究者或作者的劳动成果被恶意使用; 11、确保研究者和作者的创新成果得到应有的回报; 12、避免恶意使用者盗取研究者和作者的知识产权; 13、确保数字人的权利得到保护; 14、避免未经授权的使用或滥用; 15、确保研究者和作者的努力不会被忽视; 16、确保研究信息的可追溯性; 17、确保研究成果不会被滥用或恶意使用; 18、确保数字人的贡献受到重视; 19、防止研究成果被滥用或恶意使用; 20、确保研究者和作者的成果受到应有的尊重。 刘洋:@AEKnow 我准备发一篇博文,呼吁尊重Nature等期刊拒绝ChatGPT署名的权力,还有什么需要补充的吗? AEKnow:@刘洋 1、在博文中,要强调严肃对待自然期刊拒绝ChatGPT署名的权力,及其对遵守学术诚信规范的重要性。...
别紧张,ChatGPT离统治人类还早得很
期刊论文

别紧张,ChatGPT离统治人类还早得很

意义重大。2023年开年,互联网上最火的词是什么?——ChatGPT。 这款由人工智能公司OpenAI开发的聊天机器人的突然爆火,不仅引发了人们对其应用范围的大讨论,也炒热了ChatGPT概念。一时间,街头巷尾都充斥着关于ChatGPT的热议,ChatGPT相关概念股更一度猛涨。 在经历了2016年由AlphGo击败李世石而掀起的AI浪潮后,ChatGPT的出现让AI这个行业再度以如此高光的姿态回到公众视野。只是,与上一波AI浪潮不同,这次的主角从谷歌的AlphGo,变为微软的OpenAI。 凭实力震惊四座 公开资料显示,ChatGPT是由人工智能研究实验室OpenAI发布的一款生成式AI对话大模型。ChatGPT能够通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。 ChatGPT在2022年11月一经推出,就迅速在社交媒体上走红。不到一周,用户数就突破100万人,月访问量达2100万人次。上线一个多月,ChatGPT就把OpenAI的估值从200亿美元推高到290亿美元。推出仅两个月后,月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。 在ChatGPT聊天界面中,用户只要输一段文字,ChatGPT就能够通过其AI语言模型,在短短几秒内给出回复,并且能实现上下文连续对话,作为一种重要的人工智能技术,有望在各个领域产生广泛的影响。 随着ChatGPT火遍全球,关于它的报道和“测评”也铺天盖地。 据悉,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。写作业、写论文、写演讲稿……ChatGPT的身影出现在了诸多领域。 一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。据权威学术期刊《自然》新闻部报道,截至目前,ChatGPT已经作为合著作者,出现在至少四篇已发表的论文或预印本中。 在强大的“网红带货”基础上,基于ChatGPT的应用也陆续出现。有人用ChatGPT做了一个“会议秘书”程序,可以在视频会议中实时形成会议纪要,最后连任务建议全都一并总结了。 用户追捧,投资界关注,企业竞相追逐,这款凭借出色的聊天能力、惊人的理解能力,成功摆脱“人工智障”的聊天机器人成为最近网友争相“测试”的聊天对象。“厉害”“强大”“可怕”成为和ChatGPT聊过天的网友口中反馈的高频词。 OpenAI最初的联合创始人之一埃隆·马斯克在推特上写道:“这是一个新世界。再见作业!” “超能力”隐患 ChatGPT的利用价值被人类挖掘,其引发的技术、安全、教育等问题也引起重视。有声音称其“有望干翻教育、金融、新闻媒体”,但ChatGPT的“超能力”除了让行业感到兴奋,也一并带来了隐忧。 事实上,从2015年人工智能话题起风以来,关于“人类工作被AI取代”的讨论就不绝如缕。有人调侃称,“每当有AI新闻出现,很多行业人士就要‘被失业’一次。” 一项调查显示,现在美国89%的大学生都是用ChatGPT做作业,目前,纽约教育系统全面“封杀”了ChatGPT。 由于ChatGPT在论文上的使用,多家知名学术期刊也正在更新编辑规则。多家期刊、出版机构如《科学》《自然》等,也禁止将ChatGPT列为论文合著者。 对于学术研究领域而言,如果无法区分人工编写内容和AI模型生成内容,任由AI发布错误的研究结论,人类很可能会被AI严重误导。到那时,电影中AI蒙骗人类、酿成大祸的情节,很快就会成为现实。 还有一些学术会议在公开反对ChatGPT成为作者时提到了“责任归属争议”。比如,机器学习会议ICML就表示过:“ChatGPT接受公共数据的训练,这些数据通常是在未经同意的情况下收集的,这会带来一系列的责任归属问题。” 除此之外,ChatGPT可能引起的”学术剽窃”风险。有学者认为,如果ChatGPT在回答用户过程中提供了他人创作的文字、摄影、试听等作品或软件代码,只要超出合理使用限度,就属于侵犯著作权的行为,而且ChatGPT的检索效率、精准度比谷歌等传统搜索引擎更高,客观上为学术剽窃等不端行为提供了很大便利,被学术机构禁用在情理之中。 搜索巨头混战 伴随着ChatGPT的霸屏,其广阔的商业前景已引起关注。 总的来看,ChatGPT是AIGC(人工智能生产内容)的一个分支,你可以让它写一首诗赞美李白,帮你写简单的代码,甚至可以问它“如何3句话让女人为我花30万?”在某种程度上,由于省去了用户浏览多条信息进行筛选和整合的时间,ChatGPT甚至比搜索引擎更加方便。 在应对ChatGPT向人工智能领域发起的挑战中,搜索三巨头再次陷入激战。 北京时间2月7日凌晨,谷歌对标ChatGPT推出对话式人工智能服务Bard。当日下午两点,百度官宣大模型新项目文心一言。次日凌晨两点,微软推出由ChatGPT支持的Bing版本。 谷歌推出的人工智能聊天机器人Bard直接与ChatGPT竞争,但谷歌的反攻却遭遇了不利开局。2月8日,Bard在一条演示视频中犯了一个事实性错误,它在官方演示视频中提问的“关于詹姆斯·韦伯太空望远镜(JWST),我可以告诉我9岁的孩子它有哪些新发现?”Bard给出了一个回复为“JWST拍摄了太阳系外行星的第一张照片”的错误答案。 上述错误被发现后,引发市场对人工智能技术生成答案准确性的担忧,谷歌股价也一度暴跌近9%。市值一夜蒸发千亿美元。 而面对ChatGPT的全面爆红,微软决定将OpenAI的技术整合到Bing搜索引擎中,引发搜索市场巨震,外界认为谷歌在搜索市场的霸主地位或将受到威胁。 国内搜索巨头百度也不甘示弱。百度表示,人工智能聊天机器人服务项目“文心一言”目前在做上线前的冲刺,预计三月份完成内测,面向公众开放。 除了传统三巨头之外,其他企业也纷纷入局争相“分一杯羹”。同样拥有搜索业务的三六零公司也在互动平台回复称,公司计划尽快推出类ChatGPT技术的demo版产品。阿里、网易、京东灯一众公司也集体对外宣布要推出类ChatGPT新产品 现在可以确定的是,在“谁能代表下一代搜索和浏览器”的问题上,科技巨头们还将继续针锋相对。 ChatGPT的商业局限 从业内人士的角度来看,ChatGPT之所以能够让人如此疯狂,更多是因为它可能提供的丰富的消费互联网应用场景,由此带来的“钱景”使整个AI产业看到了一丝曙光。 从2020年开始,业界认为AI产业已经进入泡沫破裂的“死亡之谷”。造成这一问题的主要原因在于,目前AI产品的应用主要集中在B端(企业用户)和G端(政府用户),这在某种程度上大大限制了AI产品的市场扩张。 而ChatGPT的市场表现,也让外界开始提出疑问:AIGC会不会取代搜索引擎成为下一代商业模式。 搜索引擎的价值在于帮助用户快速找到所需的信息,ChatGPT则可以根据用户的输入,自动生成相关的回复,核心是创造信息。即使搅动了整个搜索行业,ChatGPT的短板也很明显:常常一本正经地胡说八道。 ChatGPT受制于模型训练方式,其数据无法实现实时更新。而人工智能机器的神通可以广大到什么程度,取决于背后的计算机工程师“喂养”了它多少数据。数据存在空白区、缺乏准确性,导致目前的ChatGPT仍然处于“一本正经地闲聊”阶段,尤其是很多知识类的内容经不起推敲。因此,使用类似ChatGPT 的对话式人工智能进行检索,可能会带来不准确、偏见和抄袭,而搜索引擎则能够给出各种解法和例题。 目前ChatGPT知识储备仅截至2021年,还不能实时调取互联网信息。从工业应用的角度来看,一个模型需要把所有知识都记录下来,而现在的模型规模无法达到。 因此,AIGC和搜索引擎尽管部分功能相同,最好的走向应该是互补而非取代。 每一次新的AI技术出现,市场都是喜忧参半,把时间拉到整个历史进程来看,ChatGPT所表现出来的效果和市场认可度,依然对人工智能浪潮意义重大。
经纬早班车|事关个人信息,又一国“盯上”ChatGPT;滥用自身地位?Meta摊上事
期刊论文

经纬早班车|事关个人信息,又一国“盯上”ChatGPT;滥用自身地位?Meta摊上事

 【隔夜重磅】 纳指三连跌 美东时间周三,美股三大指数收盘涨跌不一,纳指连续第三日下跌。具体来看,道指收涨80.34点,涨幅为0.24%,报33482.72点;纳指收跌129.47点,跌幅为1.07%,报11996.86点;标普500指数收跌10.22点,跌幅为0.25%,报4090.38点。多项经济数据显示出美国经济增长正走向放缓或衰退的潜在迹象。 据美国自动数据处理公司(ADP)于当地时间4月5日发布的月度全美就业报告显示,3月份美国私营部门就业人数增加14.5万人。该数据远低于此前机构预测的20万人,也远低于2月的26.1万人。 此外,当地时间4月5日,美国供应管理协会(ISM)公布数据显示,美国3月份非制造业采购经理人指数(PMI)为51.2%,低于2月的55.1%。非制造业就业指数为51.3%,低于2月的54%。 美股投资者对加息的担忧再次发酵,当地时间4月4日,美国克利夫兰联储银行行长洛蕾塔·梅斯特说,美国联邦储备委员会可能再次加息以抑制通货膨胀。 受相关消息影响,美股大型科技股普遍下跌,苹果跌1.13%,亚马逊跌2.74%,奈飞跌1.27%,谷歌跌0.24%,脸书跌1.51%,微软跌0.99%。 银行股多数下跌,摩根大通涨0.11%,高盛跌0.35%,花旗跌0.69%,摩根士丹利跌1.21%,美国银行跌1.25%,富国银行涨0.23%。 航空股集体下跌,波音跌1.83%,美国航空跌1.91%,达美航空跌1.36%,西南航空跌0.47%,美联航跌1.2%。 热门中概股多数下跌,中阳金融跌18.47%,有道跌15.61%,陆金所控股跌10.92%,亿航智能跌10.65%,新蛋跌7.63%,金山云跌6.08%,富途控股跌5.33%,新东方跌5.25%,世纪互联跌5.15%,爱奇艺跌5.14%;涨幅方面,聚好商城涨146.47%,能链智电涨11.97%,传奇生物涨4.08%。中概新能源汽车股全线走低,蔚来汽车跌2.61%,小鹏汽车跌1.57%,理想汽车跌2.94%。 又有一国“盯上”ChatGPT 当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对聊天机器人ChatGPT背后的OpenAI展开调查,该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。 目前OPC没有透露更多的调查细节。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。” 此前,3月31日,意大利的数据保护部门针对ChatGPT发出一项临时禁令,即日起禁止使用ChatGPT,并限制OpenAI处理意大利用户信息。 值得一提的是,在这个时间点上,近日,ChatGPT官网停止Plus付费项目的购买。在升级界面,OpenAI表示“因需求量太大暂停了升级服务”。 据悉,无法升级为付费版Plus并不会影响用户与ChatGPT正常对话,但免费版用户无法使用新款模型GPT-4以及测试版插件。 在此之前,ChatGPT的开发公司OpenAI陆续推出新的应用,包括多模态模型GPT-4以及能够联网的测试版插件,前者暂时仅向ChatGPT Plus的付费用户开放,后者优先考虑少数开发者以及ChatGPT Plus的付费用户。 二级市场方面,当地时间周三,美股AI概念股普遍走低,BigBear.ai跌18.28%,C3.ai跌超15.49%,SoundHound AI跌12.46%。 意大利反垄断机构对Meta展开调查 当地时间5日,意大利反垄断机构宣布,对Meta展开调查,以核实该公司在与意大利作家和出版家协会的音乐使用权谈判中,是否滥用了自身地位,并可能损害该行业的竞争。 意大利反垄断机构认为,Meta在与该协会的谈判中没有遵守透明和公平的原则,擅自终止谈判,削弱了协会的市场竞争力,限制了消费者的选择权利。 路透社的报道显示,上个月,拥有脸书、Whatsapp和Instagram的Meta未能与意大利作家和出版家协会续签版权许可。因此,自3月16日起,上述协会旗下所有歌曲在Meta平台上被屏蔽。 2022年韩国国家债务再创新高 据韩联社报道,韩国政府4日在国务会议上审议通过的《2022年会计年度国家决算报告》显示,2022年韩国国家债务为2326.2万亿韩元(约合人民币12.2万亿元),时隔一年再创历史新高。 具体来看,去年韩国国家债务为2326.2万亿韩元,较前一年增加130.9万亿韩元,增幅为6%。包括国债、公债、借款等固定性债务为907.4万亿韩元,较前一年增加10.9%;其他债务为1418.8万亿韩元,较前一年增加3%,其中包括用于支付公务员、军人养老金产生的负债规模,预计为1181.3万亿韩元。 韩国中央政府债务1033.4万亿韩元,地方政府债务34.2万亿韩元。由此,政府债务在国内生产总值(GDP)中所占比重为49.6%,较前一年上升2.7个百分点。按照统计厅2022年发布的韩国总人口数来计算,人均承担的政府债务为2068万韩元,首次超过2000万韩元。 大众宣布在美召回3.21万辆汽车 美国国家公路交通安全管理局近日披露,因三项独立故障,大众汽车集团正在召回3.21万辆汽车。其中,16207辆2023款ID4汽车车门可能会意外打开,增加受伤的风险;15874辆2022款TAOS汽车燃油输送泵可能会破裂,导致发动机突然熄火,从而增加撞车风险;19辆2020款奥迪Q7汽车的前置摄像头可能会过热,从而增加火灾风险。  【今日关注(北京时间)】 10:00 国新办就“更好发挥税收职能作用 更优服务经济社会高质量发展”举行发布会 20:30 美国4月1日当周初次申请失业金人数 22:00 美国圣路易斯联储主席布拉德发表讲话  【新股申购】 光大同创(301387) 申购代码:301387 发行价:58.32元/股 发行市盈率:35.83 上市地点:深圳证券交易所 主营业务:消费电子防护性及功能性产品的研发、生产和销售。...