文章主题:编辑, 大风, 科技突破, 风险

666AI工具大全,助力做AI时代先行者!

作者|路世明

编辑|大 风

科技突破不止会带来变革,往往也会带来一些潜在的风险。

ChatGPT 推出以来,众多用户与企业在热情洋溢的拥抱“未来”,但与此同时,ChatGPT 也正在遭遇一场“围剿”。

在国家层面,自从意大利率先禁止使用ChatGPT之后,各国政府和企业在调查潜在风险的同时,纷纷采取相应措施限制该软件的使用。而在领域层面,包括乔治华盛顿大学、巴黎政治学院等知名学府,已有多所大学明令禁止学生在校园内的设备及网络环境中使用ChatGPT,目的是为了防止学生利用该软件进行作弊行为。

相比国家和某一领域,全球范围内的不少大型企业,对于 ChatGPT 表现的更为 ” 敏感 “。

在科技行业中,包括三星、软银、松下、LG、台积电以及SK海力士在内的多家公司都已经对员工使用了ChatGPT的限制。而在金融领域,摩根大通已经明确禁止其员工使用该技术。此外,在电商领域,亚马逊也曾出现过禁止团队成员将机密客户数据输入ChatGPT的情况。这些事件充分展示了ChatGPT技术在各个行业的广泛应用及其可能带来的潜在风险。

多家企业之所以对 ChatGPT 保持非常谨慎的态度,甚至是限用,并非不明白生成式 AI 所意味着的时代机遇,而是在意 ChatGPT 对企业 ” 隐私安全 ” 造成的威胁。

随着企业规模的不断扩大,数据安全和隐私保护的问题日益严重,使得企业对于类似ChatGPT等工具变得更加审慎。

大厂 ” 禁用 “ChatGPT

最近,三星公司发布了一项新的政策,该政策明确规定,员工在工作场合禁止使用诸如OpenAI的ChatGPT和谷歌Bard等生成性人工智能产品。

三星公司目前实行的一项政策禁止员工在公司设备上使用人工智能工具,这些设备包括电脑、平板电脑和手机等。然而,该公司的 memo 指出,员工仍然可以在个人设备上使用人工智能工具,但必须确保这些工具仅用于与工作无关的事务。此外, memo 中还强调了员工必须严格遵守安全准则的重要性。如果员工违反规定并导致公司信息或数据泄露,他们将会受到纪律处分,而如果情况严重,他们可能会被解雇。

图:三星总部大楼

在三星实施其严格的新的政策之前,全球许多公司已经纷纷发布声明,限制自己的员工使用ChatGPT。

首先对 ChatGPT 发出 ” 不友好 ” 声音的企业,来自金融行业。

不久之后,ChatGPT引领的热潮席卷全球, wall street giant 们纷纷跟进。今年2月,包括JP Morgan、American Bank、Citibank 和富国银行在内的多家银行巨头纷纷表示将限制或禁止使用 ChatGPT。值得注意的是,这些银行的禁令并非源于某一特定事件,而是基于公司对第三方软件的常规管理。具体来说,摩根大通不允许员工在办公室使用 ChatGPT,这一政策并非针对某个特定事件,而是为了维护公司的正常运营和管理。

美国银行例行提醒员工切勿使用未经授权软件时,也特别点名提到 ChatGPT。德意志银行更是表明,严禁员工在公司内用 ChatGPT,并从内部阻断连接 OpenAI 网站。而尽管高盛鼓励编程人员采用 AI 来辅助编程,但禁止旗下交易员使用 ChatGPT。

日本方面,软银、日立、富士通、日本瑞穗金融集团等企业也开始限制 ChatGPT 等交互式人工智能服务在商业运作中的使用。

相比金融行业,科技行业的动作丝毫不慢。

今年 3 月初,台积电发布了一系列内部公告,提醒员工谨慎使用网络工具如 ChatGPT 或 Bing AI Chat 等。除三星外,同属韩国企业的全球第二大存储芯片巨头 SK 海力士亦称 ” 除必要时刻外 “,禁止公司内网使用 ChatGPT。

不可否认,ChatGPT 这样的生成式 AI 对提高工作效率很有帮助,但对于这样一个还不足够成熟的 AI 工具来说,它所展现出的负面效应,并不小于它的正面效应。就如同一把双刃剑,在没有 ” 剑鞘 ” 作为一种保护机制出现之前,对于 ChatGPT 的 ” 围剿 ” 绝对不会停止。

能够预料的是,禁用 ChatGPT 的企业,仍然会持续增加。

数据安全是核心原因

ChatGPT 的火爆,实际上是 ” 深度学习 ” 大模型的成功。

生成式 AI 工具,离不开大数据的帮助。它的进化,需要海量的数据来训练,通过感应器采集数据,进行信息存储、加工,通过算力进行计算,最后形成决策机制,进行反馈。庞大的数据训练,造就了 ChatGPT 强大功能,但这也意味着,ChatGPT 实际上在不断地接触各种对话,其中可能包含相关的敏感信息。

无论是个人、企业,还是国家层面,机密数据、文件隐私,都有可能在使用过程中被 ChatGPT 采集到,从而被大规模地扩散。这些数据的泄露,也很有可能会对个人、企业,甚至是国家造成重大的损失。

三星无疑是一个典型的 ” 受害者 “。

据了解,今年 3 月三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用 ChatGPT,随后 20 天内就发生了三起将公司内部半导体数据上传到 ChatGPT 的事件。

其中,员工 A 用 ChatGPT 帮自己查一段代码的 bug;员工 B 想用 ChatGPT 帮自己优化一段代码;员工 C 想先用 AI 语音助手 Naver Clova 将自己的会议录音转成文字,再用 ChatGPT 帮他总结一下会议内容,做成摘要。

前两起案件已分别导致三星公司的半导体设备测量资料、产品良率等机密内容录入到 ChatGPT 的学习资料库中,这让三星很是担忧其数据将通过人工智能平台最终落入其他用户手中。

不止三星,数据安全服务 Cyberhaven 曾检测到并阻止了其客户公司 160 万名员工中,4.2% 的人将数据输入 ChatGPT 的请求,因为存在泄露机密信息、客户数据、源代码或监管信息的风险。

Cyberhaven 还发现,随着 ChatGPT 的应用率越来越高,给它上传企业数据的打工人数量也越来越多。一天之内(3 月 14 日),每 10 万名员工就平均给 ChatGPT 发送了 5267 次次企业数据。

来源:Cyberhaven

Cyberhaven 数据显示,在员工直接发给 ChatGPT 的企业数据中,有 11% 都是敏感数据。例如在一周内,10 万名员工给 ChatGPT 上传了 199 份机密文件、173 份客户数据和 159 次源代码。

和三星一样,所有 ” 限用 “ChatGPT 的企业,无论处于什么领域,基本都是出于数据保护的考量,都非常担忧第三方软件访问敏感信息带来的风险。毕竟 ChatGPT 所处理的数据通常具有多样性和复杂性,其数据的收集、存储、传输、处理等各个环节,都存在 ” 合法性 ” 问题。

随着 ChatGPT 在自然语言处理领域的广泛应用,人们面临数据安全和隐私保护的挑战,正变得越来越巨大。

机遇与风险并存

技术发展史,也是人类的一部恐惧史。

15 世纪的德国学者面对刚刚发明的古腾堡印刷机非常担忧,认为这会让他们有永远也无法读完的文献,而他们的作品也不再稀缺,而且会导致大量抄写员失业。

再到工业革命时期的 ” 卢德运动 “,工人们拆除编织机的关键零件,袭击仓库,并威胁采取更多的暴力行动。实际上这些操作机器的工人非常清楚设备的生产效率,他们采取行动并非针对机器,而是针对厂方降低工资、裁撤岗位和忽视生产安全的做法。

新技术问世后总会有一段过渡期,这也是社会对它关注最密切的时期。ChatGPT 展现出的能力很强大,让很多企业开始积极拥抱,也让很多企业感到 ” 害怕 “。

数据安全问题的确是不得不提防的一点。越是大公司,或者越是有着数据安全和隐私枷锁的公司,越会谨慎地去对待类似的工具。三星的做法算是 ” 稳妥 ” 的,毕竟大型企业除了内部数据,更重要的是掌握着很多客户数据,一旦发生了数据泄露事件,后果不堪设想。

只是,有时候提防和运用并不冲突。

如何才能既能拥抱机遇,又能化解风险?对于这些大企业们来说,目前似乎只有一条路可选,即研发出自己 ChatGPT。这样不仅解决了风险,还能提高企业员工的工作效率。以三星来说,虽然 ” 限用 “ChatGPT,但并没有完全禁止使用。

为了避免内部信息泄露,三星计划开发自己的内部 AI 工具,供员工完成软件开发和翻译等工作。此外,三星还向旗下所有的手机以及平板电脑产品推送了微软 Bing AI 更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软 Bing AI。

图:三星手机内嵌微软 Bing AI (语气使用)

除了企业的主动防范,ChatGPT 无疑也需要加强对用户隐私的保护,包括匿名化处理、数据去标识化、隐私保护算法等。特别是在数据共享和开放研究方面,ChatGPT 需要遵循相关法律法规和伦理准则,采取有效的隐私保护措施,保障用户的隐私权益。

此外,ChatGPT 需要积极参与到数据安全和隐私保护的标准制定和监管政策建设中。通过制定统一的数据安全和隐私保护标准,加强监管和法律保障,促进数据共享和合作,从而更好地保护用户的隐私和数据安全。

ChatGPT引发的数据隐私危机:一场未有的警惕

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!