文章主题:德国联邦数据保护专员, 乌尔里希·凯尔伯, ChatGPT, 数据保护
本文源自:金融投资报
德国联邦数据保护专员乌尔里希·凯尔伯近日表示,出于数据保护的考虑, temporarily banning the use of ChatGPT in Germany is feasible. The spokesperson revealed that the move to restrict the software would fall under the jurisdiction of the German Federal Data Protection Agency. Moreover, the agency has requested additional information from Italian regulatory authorities regarding their decision to block ChatGPT.
不可否认的是,当ChatGPT运用更为广泛的同时,与之相对应的疑问和担忧也接踵而至。
欧洲或有意“围剿”ChatGPT
近期,德国联邦数据保护专员乌尔里希·凯尔伯(Ulrich Kelber)在4月3日的评论中提到,鉴于数据安全问题,德国可能会效仿意大利的做法,限制甚至封杀ChatGPT。这一言论引起了广泛关注,因为ChatGPT作为人工智能助手,已经在全球范围内展现出强大的影响力。在分析这一问题时,我们需要认识到,随着科技的发展,人工智能的应用范围越来越广,人们对于其安全性、隐私性和伦理性的关注也越来越高。尤其是在数据安全问题日益严峻的今天,各国政府都在采取措施加强对数据的保护。在这种情况下,德国跟随意大利的限制措施,可能是出于对数据安全的考虑。然而,我们也应该看到,这种限制并非没有争议,因为ChatGPT等技术在很大程度上推动了人工智能的发展,为人们提供了便利。从另一个角度来看,这一事件也提醒我们,在推动技术发展的过程中,我们需要平衡创新与监管。一方面,政府应当鼓励科技创新,为企业和开发者提供良好的发展环境;另一方面,也需要加强监管,确保技术的发展不会损害人们的利益和数据安全。在这一问题上,我们应该借鉴国际上的先进经验,制定合适的政策和法规,既支持创新,又保障安全。总之,德国可能会因数据安全问题而限制或封杀ChatGPT,这一做法引发了广泛的讨论。在推动人工智能技术发展的过程中,我们需要关注数据安全、创新与监管之间的平衡,以确保技术的健康、可持续发展。
上周,OpenAI在意大利暂时禁用了ChatGPT,这之前,意大利政府机构已经暂时禁止了这款应用,并对其是否违反了隐私规则进行了调查。意大利政府机构的官员乌尔里希·凯尔伯表示:“在原则上看,类似的情况在德国也有可能发生。”然而,他明确指出,这种情况将为国家管辖范围所涵盖。关于目前是否已经在制定相关行动计划,他并未提供任何详细信息。
此外,法国和爱尔兰的隐私监管机构表示,他们也已与意大利数据监管机构联系,讨论其调查结果。
值得注意的是,4月4日,欧盟将要求所有生成式AI内容必须注明来源。
最近,欧洲联盟内部市场专员以及工业和信息化产业负责人蒂埃里·布雷顿对AI生成图片所引发的争议作出回应。他表示,欧盟将成为首个对人工智能生成的所有内容实施明确规定的政府,这包括文本和图像等各个方面。值得注意的是,欧盟人工智能法案即将于本月开始进行投票。根据这项法案,生成式AI将被视为需要特别关注和监管的对象。此外,若有人在使用社交网络时发布由AI生成的图像,却没有明确标注出其由AI生成,那么他们将会面临法律制裁。
实际上,ChatGPT的横空出世引起了各国监管机构的担忧,而欧盟对个人数据保护走在前列。
欧盟委员会于2021年提前推出了《人工智能法案》。据内部人员透露,欧洲立法者正在积极探讨一系列新规定,以对高风险的AI工具实施限制。
深陷封号、泄密危机的ChatGPT
近期,各方对ChatGPT及OpenAI的不满、恐慌、抵触等负面情绪正持续发酵。
首先在用户方面,ChatGPT近日大量封禁OpenAI账号,据统计已有数百万用户的账号受到了影响。
在3月30日晚上,一些用户注意到在使用付费Plus服务后,尽管会扣除相应的费用,但订阅服务并未激活。紧接着,从3月31日起,一些用户发现OpenAI暂停了新的用户注册途径。这些信息反映了近期OpenAI可能出现了一些问题,导致部分功能无法正常运行。
其次是政企方面,近期,意大利直接禁用,另外三星等企业存泄密风险。
让我们深入探讨一下近期发生的两件事情。首先,意大利决定禁止使用ChatGPT,并对OpenAI处理意大利用户信息的行为加以限制。与此同时,据韩国媒体报道,3月11日,三星DS部门开始允许员工使用ChatGPT,然而在短短20天内,就发生了三起机密信息泄露的事件。其中两起与半导体设备有关,另一起则涉及会议内容。
随着企业机密信息保护的重要性日益凸显,各大金融机构纷纷采取措施,限制ChatGPT等聊天机器人的应用范围。美国的银行巨头如美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通以及Verizon等都已禁止员工在使用ChatGPT处理工作任务时泄露公司机密。此外,日本的软银、富士通、瑞穗金融集团、三菱日联银行以及三井住友银行等公司也跟进限制了ChatGPT和类似聊天机器人的商业用途,以防止企业机密信息的泄露。
数据安全再次被摆上台面
相关统计显示,ChatGPT于去年11月发布,其月活跃用户在今年1月就达到了1亿,刷新了消费级应用程序用户增长速度记录。
而后,各大互联网企业纷纷入局,抢占市场。2月,谷歌发布对话型AI系统Bard迎战ChatGPT;3月,微软发布植入GPT-4技术的Copilot, AI助力Office软件生产力大提升;同期,百度发布了大模型文心一言,并启动内测;另外,腾讯AI Lab发布自研3D游戏场景自动生成解决方案,使用AIGC技术。
一方面,OpenAI GPT大模型引领全球AI创新热潮,另一方面在新技术之下 “矛“与”盾”也日益严重。
有业内人士表示,如何确保数据授权、界定数据安全的责任与科技公司的义务,规避隐私泄露、知识产权等风险,这些都将是人工智能在大规模介入公共领域后,必须首先解决的问题。
“对于ChatGPT暴露出的相关风险,要加快研究监管措施。” 北京国际城市发展研究院创始院长连玉明在接受人民政协报的采访中对数据权利保护提出三条建议。
首先,数据权利保护要抓两头取中间,避免一关就死、一放就乱,可一头抓国家数据安全,一头抓个人信息保护。其次,要加强数据交易平台的建设和监管,把自律和监管放在同等重要的位置。
数据权利制度需要细化,才具有可操作性和可适用性,但现行法律关于数据权利的规定较为笼统且分散。为此,连玉明提出的第三条建议是出台更具操作性的数据权利司法解释,配套出台数据权利的行政法规、部门规章和规范性文件,提高数据权利司法保护的操作性。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!