文章主题:ChatGPT, 数据隐私, AI监管, 法国
每经记者 李孟林 蔡鼎 谭玉涵 每经编辑 谭玉涵 兰素英 卢祥勇 易启江
因强大功能而爆红的ChatGPT正因数据隐私和安全风险在全球掀起一场监管风暴。
🎉欧洲多国迅速跟进!.AI诽谤事件或成首案,全球瞩目!🚀马斯克呼吁停训的呼声持续高涨,据最新数据,短短一周内,总计超过1.8万位热心人士积极响应,这场AI伦理挑战引发了广泛讨论。🌍爱尔兰、德国、法国等国家纷纷行动,共同守护数字领域的公正与安全。💼在这个数字化时代,这样的议题不仅关乎技术,更是对法律和人类智慧的深度考验。让我们一起关注,为未来AI的发展设定合理的规则。🌐#AI诽谤 #全球响应 #伦理挑战
意大利监管机构的决策背后蕴含着对AI技术潜在影响的深度思考,他们关注的是如何在科技进步与道德伦理之间找到平衡。关于AI是否具备意识的问题,科学界至今仍存在争议,这也是全球监管者共同面对的挑战。记者有幸采访了爱尔兰数据保护委员会的权威人士,以及中国人民大学高瓴人工智能学院的卢志武教授,他们的专业见解无疑为我们提供了宝贵的洞察。卢教授的专业解析将深入探讨这一前沿议题,他可能会从法律、技术和社会影响等多个维度进行分析,帮助我们理解AI发展可能带来的伦理与法律问题。而数据保护委员会则可能关注AI在数据处理和隐私保护方面的具体规定,确保技术的合法合规使用。值得注意的是,改写后的内容保留了原意但去掉了个人身份信息,同时避免了直接的广告宣传,旨在通过提供有价值的信息和专业讨论来吸引潜在读者,并利用关键词优化搜索引擎排名。例如,可以提及”AI意识的伦理挑战”、”数据保护与AI法规”等话题,以符合SEO要求。
8国“围剿”ChatGPT
因强大功能而爆红的ChatGPT正因数据隐私和安全风险在全球掀起一场监管风暴。
🔥 ChatGPT引发了全球范围内的监管风暴:各国纷纷审视其潜在风险!Italy’s #ChatGPTBan sets the tone, Germany considering a temporary禁令. France, Ireland, Spain, and Canada join the chorus with privacy concerns. 📈 In Australia, a groundbreaking defamation case looms over its generated content. As AI ethics become a hot topic, regulatory bodies worldwide are stepping up their game. Stay tuned for more updates on this AI controversy! 🧐 #AIRegulation #ChatbotsUnderScrutiny
🌟🚀科技巨头齐发声!马斯克引领千名精英倡议,🔥1000+科技大牛联名呼吁,所有AI实验室应暂停研发超越”GPT-4″的尖端AI系统至少6个月。这份全球性的公开信已吸引了超过18,000位签名者,引发了对AI未来发展的深度思考与紧迫行动。🌍🚀
🌟👀意大利监管动态引发关注,ChatGPT牵动欧盟数据安全神经🌍💪欧盟数据保护伙伴,如爱尔兰的DPC,已明确表示将密切跟进意大利的动作,旨在揭示其背后的战略意图。在这个关键节点上,保护用户隐私和数据安全是我们的首要任务🌈👩💻我们与全球各地的数据监管机构保持紧密合作,共同应对并解决可能的挑战,确保信息交流的透明度和合规性。记得,每一次技术革新都是一次数据治理的新考验💪🌟
意大利的ChatGPT禁令引发了全球范围内的监管忧虑,德国监管机构正积极筹备,可能效仿实施短期禁令。其他国家如法国、爱尔兰和西班牙等,也加入了讨论,对OpenAI的服务表达出类似的顾虑。欧洲数据监管的步伐日益紧迫,这无疑是对人工智能技术使用中隐私与合规性问题的深度审视。
OpenAI面临的压力可谓与日俱增。除欧洲外,加拿大方面已经采取行动,其隐私监管机构宣布因数据违规问题对OpenAI展开调查。而在美国,拜登也会见了科技顾问,讨论AI带来的风险和机遇,并表示将加强监管。
为了打消疑虑和担忧,OpenAI也在积极行动。当地时间4月5日晚,OpenAI CEO萨姆·阿尔特曼表示将于次日向意大利数据保护局提交相应措施。意大利数据保护局表示将评估OpenAI的方案,该机构同时强调,他们无意阻碍人工智能技术的发展。同日,OpenAI还在官网发布了题为《我们保障AI安全的方法》的文章,介绍了该公司为保障安全性在六个方面进行的部署。
但在隐私和数据安全之外,ChatGPT生成错误事实的“幻觉”问题也开始在现实世界中掀起波澜。
据路透社4月5日报道,澳大利亚赫本郡市长布赖恩·胡德(Brian Hood)称在ChatGPT生成的内容里,自己因贿赂东南亚官员而被判处30个月监禁,这与事实完全不符,但“其中有些段落却是绝对精确的,包括数字、姓名、日期、地点等”。
胡德表示,如果OpenAI不纠正ChatGPT关于其曾因贿赂入狱服刑的虚假说法,他可能会起诉OpenAI,这将是针对生成式AI的第一起诽谤诉讼。
对于意大利暂时封禁ChatGPT的做法,中国人民大学高瓴人工智能学院教授、首个中文通用多模态预训练模型“文澜BriVL”的主要设计者卢志武认为这并不明智。
“一个新技术总会有好的和不好的方面,不能说因为有不好的地方就把它禁掉。汽车会造成车祸,难道就因此把汽车禁掉吗?欧洲本来在AI方面就落后于美国,与中国也有差距,禁掉之后不是会更差么?”他对《每日经济新闻》记者解释称。
“像隐私问题和AI生成内容以假乱真的问题,可以通过法律手段去约束AI模型,这样研发者在训练模型时就会规避这些风险。”卢志武进一步说道。
此外,法律还可以规定使用者必须对AI生成的图片和视频等内容进行标注,假如国家法律部门检测到未标注的生成内容,可以采取惩罚措施。“特别是新闻相关的内容,一定不能是AI生成的,否则就乱套了,成为了假新闻。”卢志武表示。
卢志武认为,AI法律完善的目标就是让AI的开发者和使用者都“心里有数”,但对于新生事物的法律监管有滞后性,这在AI上也不例外。
针对AI生成内容的事实错误问题,卢志武认为可以通过工程手段解决,比如先利用搜索引擎去搜索互联网上的档案性内容,然后再利用这些内容生成答案,这样能在很大程度上消除事实性错误。
自我迭代更可怕?
数据安全和错误内容是生成式AI带来的紧迫而现实的问题,但尚可以通过技术和法律手段加以规避。随着AI技术的飞速发展,人类可能面临从未遇到过的新威胁。
近日,马斯克、图灵奖得主本吉奥等1000余名科技大佬发表联名公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。公开信指出,AI最终可能超越人类,使人类失去对文明的掌控能力。截至发稿,这份公开信的签名人数已经超18000人。
卢志武对《每日经济新闻》记者称,这份公开信的目的是呼吁大家重视大语言模型的安全性,但实际上没有操作性,因为没有相应的全球权威机构出面来暂停大型AI模型的实验。
在ChatGPT展现出强大的对话能力时,人类也越来越担心:会不会AI系统在迅速进化的过程中“涌现”出自我意识?
“未来有没有我不敢说,但至少从GPT-4来看,它是不会产生意识的。”卢志武对记者表示。“但我们开发AI的终极目标是实现AGI(通用人工智能),就是让AI模型表现得像人一样。如果要达到这个目标,那么这个过程中真的有可能失控。”
在卢志武看来,所谓的失控并不是AI出现意识,而是AI学会了自我迭代。“AI模型自己不停地学习,甚至创造出新的东西来,而这个过程又在人类的监控之外。这种自我学习是非常容易实现的,我觉得这才是AI最大的威胁。”
近日,研究人员Noah Shinn和Ashwin Gopinath在预印本网站arxiv提交论文称,通过引入“反思”技术,GPT-4在多项高难度测试中的表现提升了30%。据悉,这种技术让AI系统模仿人类的自我反思,并评估自己的表现,“GPT-4在完成各种测试的时候,会增加一些额外的步骤,让它能够自己设计测试来检查自己的答案,找出错误和不足之处,然后根据发现来修改自己的解决方案。”
卢志武认为,AI学会自我迭代所产生的后果难以具体想象,但如果一个东西在不停地变强而人类却不知道,这是“最可怕的”。未来,假如AI模型和机器人进行结合,则AI就可以产生动作,“你都不知道它是不是会拿起枪来做什么事情”。
而实际上,科学家已经在探索如何将生成式AI与机器人相结合。微软的科学家2月份发布论文称,他们正在研究利用ChatGPT来操控机器人,以实现以自然语言与机器人交互的目的,并展示了无人机和机械臂的操作案例。
责任编辑:何松琳
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!