文章主题:平衡科技创新与隐私保护, 多国计划加强对ChatGPT监管, 意大利个人数据保护局(DPA)近日宣布从3月31日起禁止使用ChatGPT, 限制OpenAI处理意大利用户信息数据
转自:法治日报
平衡科技创新与隐私保护
多国计划加强对ChatGPT监管
□ 本报记者 王卫
近日,德国联邦数据保护专员乌尔里希·凯尔伯表示,鉴于数据安全的大局,德国可能会借鉴意大利的经验,暂时封停ChatGPT。他强调,这一决定将完全符合德国联邦数据保护机构的职责范围。同时,该机构还要求意大利监管机构提供更详细的信息,以便于他们采取相应的措施来确保数据安全。
ChatGPT自推出以来仅两个月便实现了1亿活跃用户的增长,创下了历史之最,使其成为史上增长最快的消费者应用程序。尽管其在实际应用中的表现令人印象深刻,但受到大规模语言模型的局限性以及数据因素的影响,其成本依然较高,且存在信息泄露等问题。因此,如何在科技创新与隐私保护之间取得平衡,仍然是一个亟待解决的问题,需要各方共同努力探讨。
多国跟进限制措施
近期,多国对ChatGPT的不满、恐慌、抵触等负面情绪正持续发酵。
近期,意大利个人数据保护局(DPA)发布了一项重要决定,自3月31日起,禁止使用ChatGPT,并对OpenAI处理意大利用户信息数据的行为进行了限制。此外,该机构还对OpenAI的隐私安全问题进行了深入调查。这一举动引起了全球范围内监管机构和企业的广泛关注,包括德国、法国、爱尔兰等国已经开始着手准备采取类似措施,加强对ChatGPT的监管。
据德国《商报》报道,乌尔里希·凯尔伯表示,理论上,实施屏蔽行动在德国是可行的。为此,德国已向意大利要求更多关于其禁令的信息。
近期,英国路透社报道了一则关于欧洲数据保护监管机构之间的互动。据报道,法国和爱尔兰的个人数据监管机构已与意大利同行展开沟通,旨在深入了解有关禁止某些行为的禁令的更多信息。爱尔兰数据保护机构(DPC)的代表表示,他们正在积极与意大利监管机构保持联系,以便更好地了解相关行动计划。此外,作为欧盟内的主要数据保护机构,他们将与其他欧盟数据保护机构紧密合作,以确保此事得到妥善处理。
据加拿大广播公司(CBC)4月4日的报道,我国相关机构已对OpenAI展开深入调查。此次调查源于OpenAI被指控涉嫌“未经同意收集、使用和披露个人信息”,这一行为违反了我国对于个人隐私保护的相关法规。与此同时,在美国,总统拜登以及其科技顾问委员会在当日举行的会议上,也对人工智能的“风险和机遇”进行了深入探讨。
近年来,随着人工智能技术的迅速发展,越来越多的企业开始采用ChatGPT等AI工具。然而,这一趋势也引发了对数据安全的担忧。据报道,包括三星、SK海力士、浦项制铁公司等多家韩国企业已经开始采取措施,限制或禁止使用ChatGPT,以防止员工因泄露敏感信息而面临法律风险。尽管LG电子公司没有发布类似的禁令,但他们仍要求员工接受关于“人工智能及数据使用”的培训,以确保他们在使用AI技术时能够遵守相关法规和安全标准。这种现象在全球范围内也逐渐增多,反映了企业对于数据安全和隐私保护的高度重视。
据日经新闻网报道,鉴于对信息泄露的忧虑,日本多家企业已经开始限制在业务操作中使用ChatGPT等交互式人工智能服务。这些企业包括软银、日立、富士通、三菱日联银行以及三井住友银行。为了保护敏感数据的安全,它们采取了一系列措施,限制这种服务的使用,以确保公司的信息不会被非法获取或利用。
但瑞典的隐私监管机构表示,目前还没有禁止ChatGPT的计划,也没有与意大利的监管机构取得过联系。西班牙的监管机构称,尚未收到任何有关ChatGPT隐私泄露或是其他方面的投诉,不过并不排除未来展开调查的可能性。
涉嫌信息泄露风险
这并不是ChatGPT第一次引发争议。自从该服务推出后,就有人担心它会被用来作弊、传播假消息或误导公众。
ChatGPT由美国人工智能研究实验室OpenAI于2022年11月30日推出,具备非常惊艳的语言理解、生成、知识推理能力。据报道,推出后短短几天内,其注册用户超过100万,两个月活跃用户数已达1亿,引爆全网热议,成为历史上增长最快的消费者应用程序,掀起了人工智能领域的技术巨浪。但不可否认的是,当ChatGPT运用更为广泛的同时,与之相对应的疑问和担忧也接踵而至。
业界认为,ChatGPT目前技术尚处于早期阶段,其自身存在较多问题。首先,身为大规模语言模型,ChatGPT使用成本高昂。ChatGPT基础大模型训练成本高、部署困难、每次调用花费不菲,还可能有延迟问题,对工程能力有很高的要求。数据显示,OpenAI为了让ChatGPT的语言合成结果更自然流畅,共用了45TB的数据、近1万亿个单词来训练模型。这大概相当于1351万本牛津词典。训练一次的费用高达千万美元。
其次,人工智能技术在信息泄露等方面的社会性风险,会因为使用的庞大数据规模被进一步放大。对于司法工作而言,在司法人员和ChatGPT交互过程中,ChatGPT会获取大量业务相关数据,这些数据在案件未符合司法公开条件之前,不能随意公开,一旦发生数据泄露,可能导致严重后果。此外,OpenAI的使用条款并未对用户可能输入ChatGPT的数据信息提供任何保护。
再次,ChatGPT准确率不高的问题不容忽视。由于ChatGPT的大部分答案都是从已知内容中摘录或搜集而来,对于未知的或者ChatGPT知识的盲区,则可能会给出错误或者不恰当的建议意见。比如,司法工作人员在办案工作中常常需要兼顾“天理国法人情”,需要考量办案的法律效果社会效果政治效果的统一,具有一定的人性化思考,而这些往往是人工智能有所欠缺和不足的,因此,此时ChatGPT给出的建议,会存在一定程度的偏颇。
数据安全任重道远
对于ChatGPT暴露出的相关风险,欧盟对个人数据的保护走在前列。据报道,欧盟即将出台的《人工智能法案》采取了一种基于风险程度对人工智能系统进行分类管理的监管思路。但是,类似ChatGPT这样的生成式人工智能产品对当前的风险分类方法提出了挑战。
事实上,欧盟委员会早在2021年便提出了《人工智能法案》条例草案,不过提案的推进并没有预想中顺利。欧洲议会议员们争议的核心是监管是否会阻碍创新,即如何平衡数据隐私与避免扼杀人工智能的创新和投资。其中最具争议的领域是决定哪些人工智能系统将被归为“高风险”。有知情者透露,欧洲立法者目前正就多方面限制“高风险”AI工具的新规则进行磋商。
不仅欧洲议会议员们尚未就提案基本原则达成一致,政府内部也引发了监管ChatGPT与否的争议。
4月2日,意大利副总理兼基础设施与可持续交通部长马泰奥·萨尔维尼在社交平台上公开发文,批评DPA暂时禁止ChatGPT的决定,称其屏蔽行为太“过度”了。他称该监管机构的行为“太过虚伪”,这种做法像是没有常识一样,“几乎所有的在线服务都无法避免涉及隐私问题”。在他看来,这项禁令可能会损害国家的商业发展和科技创新,希望能快速找到一个解决方案,早日恢复ChatGPT在意大利的使用。德国政府发言人同样认为没有必要禁止ChatGPT。
专家表示,一边是坚决禁用,一边是宽容放行。争议背后也说明,如何保护公民数据隐私、规避隐私泄露风险等问题,将是人工智能与大范围覆盖社会生活后,各主体必须要考虑和解决的问题。过于决绝的“一刀切”做法也不值得提倡,监管政策既要有可商讨的弹性空间,也要能让企业充分释放出创新活力,更重要的是保护好公民的个人数据隐私与信息安全。这不仅是意大利、德国如今面临的难题,各国都需要在保护数据安全和监管防控过度之间做好平衡,用杠杆支撑起科技创新与隐私保护两端。
(责任编辑:王炬鹏)
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!