ChatGPT 面临全球对数据隐私的审查

世界各地的数据保护机构因隐私问题对ChatGPT展开调查

发表于2023年4月13日,作者:

在2月初,随着对像ChatGPT这样的生成性人工智能系统的热潮逐渐升温时,我曾在PIA博客上:“很多数据显然受到了欧盟通用数据保护条例(GDPR)的保护。”如今,意大利的数据保护机构“Il Garante per laprotezione dei datipersonali”因担心ChatGPT可能违反GDPR,。正如BBC新闻报道的,意大利当局提出了:

监管机构在3月20日表示,应用程序曾发生数据泄露,涉及用户对话和支付信息。

他们指出,没有合法基础来证明“为了‘训练’该平台算法而进行的大规模个人数据收集和存储”是正当的。

他们还表示,由于无法验证用户年龄,该应用程序“使未成年人接触到与他们的发展和意识水平绝对不合适的回答”。

不仅仅是意大利。根据,法国的隐私监管机构已联系意大利相关当局,以获取有关禁令的更多信息,爱尔兰的数据保护专员也表示将采取同样措施。

ChatGPT面临的欧盟数据隐私问题才刚刚开始

与此同时,德国的数据保护专员表示,可能也会因GDPR问题而阻止ChatGPT。《明镜周刊》(DerSpiegel)的一篇报道(翻译由提供):

德国数据保护机构支持意大利同事的做法。“AI的训练数据如果是个人数据,同样适用GDPR,”一位发言人解释说。由于OpenAI位于美国,任何欧洲监督机构都可以采取行动。

同时,他们对意大利同事的结果非常感兴趣:“我们已经向他们询问有关阻止ChatGPT的进一步信息,随后将把这些信息传递给相关的国家数据保护监督机构和国家媒体机构,”发言人解释道。

英国信息委员会办公室()发布了一篇博客,列出了在该领域工作的公司需要自问的八个问题,并指出保护隐私“不是可选的——如果您处理个人数据,这是法律要求”。

意大利Garante已给予ChatGPT直到4月30日的时间,以遵守其。未能解决以上提到的问题可能会导致2000万欧元的罚款,或OpenAI作为ChatGPT背后的公司的全球年营业额的4%,以较高者为准。

这种在几个月前还不存在的领域中,迅速施加如此大罚款的可能性不大,但这种威胁是真实存在的,且意大利当局如果认定ChatGPT或其他任何AI系统确实侵犯了GDPR,则随时可能采取行动。

Garante的要求引发了一个新的重要问题:这些新的“大型语言模型”(LLMs)究竟如何更新?考虑到LLM的关键要素之间的相互依存性,要从输入数据中删除具体项目以解决意大利数据保护机构指出的隐私问题似乎不太可能。


您的数据对变换器LLM至关重要,信用来自
https://lena-voita.github.io

ChatGPT面临的问题超越数据隐私

ChatGPT还在GDPR下面临一些非常具体的问题,比如更正公司持有的错误数据的权利。当ChatGPT和其他LLM开始“幻觉”,生成关于个体的虚假信息时,个体将如何“更正”这些幻觉?

似乎即使基础数据是真实的,LLM输出中的错误陈述也可能出现。在这种情况下,模型本身就是问题所在。而这与GDPR下赋予欧盟公民的权利如何协调呢?

这不仅仅是GDPR和欧盟的问题,尽管那里的问题特别严重。欧盟以外的国家也开始关注LLM的隐私影响。例如,加拿大隐私专员办公室()刚刚对ChatGPT启动了一项调查:

“人工智能技术及其对隐私的影响是我办公室的重点,”隐私专员Philippe
Dufresne表示。“我们需要跟上并超越迅速发展的技术进步,这也是我作为专员的关键关注领域之一。”

对ChatGPT运营商OpenAI的调查是基于一项投诉,该投诉声称未经过同意就收集、使用和披露个人信息。

美国对ChatGPT的应对措施

在缺乏与欧盟GDPR相当的联邦隐私法的美国,仍然对新的生成AI系统感到担忧。一个名为人工智能和数字政策中心(Center for AI andDigitalPolicy)的AI智库已向联邦贸易委员会()提出了。它要求对OpenAI进行调查并暂停继续商业发布该公司新款GPT-4的计划,因为担忧其存在“偏见、欺骗和对隐私及公众安全的风险”。

在这个行业中变化如此之快,令人难以跟上。但显然,在对像ChatGPT这样的生成AI系统初期充满无限期待之后,人们现在开始意识到这些系统所带来的极为严峻的隐私问题。现在的问题是,这些问题在多大程度上能够得到解决,以及它们是否会导致在某些地区对大型语言模型的限制,如果数据保护机构果断地采取监管措施。

图片由提供。

VPN服务

Leave a Reply

Your email address will not be published. Required fields are marked *