Bard、ChatGPT处欧盟监管之下,人工智能数据隐私仍存挑战

近期,谷歌的人工智能聊天机器人Bard在欧盟推出。据了解,Bard以提高透明度和用户控制之后推出,但欧盟的隐私监管机构仍然保持警惕,欧盟关于生成人工智能的数据保护法的重大决定仍有待商榷。

Bard、ChatGPT处欧盟监管之下,人工智能数据隐私仍存挑战

谷歌所在欧盟地区的首席数据保护监管机构爱尔兰数据保护委员会(DPC)解释称,它将继续与谷歌在Bard发布后进行接触。DPC还表示,谷歌已同意在三个月后(大约10月中旬)进行审查并向监管机构报告。因此,未来几个月,如果尚未正式调查的话,监管部门将更多地关注人工智能聊天机器人。

与此同时,欧洲数据保护委员会(EDPB)成立相关工作组,调查人工智能聊天机器人是否符合泛欧盟通用数据保护条例(GDPR)。该工作组最初专注于OpenAI旗下ChatGPT,但巴德事务将被纳入协调不同数据保护机构(DPA)可能采取的行动的工作中,试图协调执法程序中。

DPC专员Graham Doyle表示:“谷歌在Bard发布前做出了一些改变,特别是提高了透明度,并改变了对用户的控制。我们将继续与谷歌就Bard发布后的问题进行接触,谷歌已同意在Bard在欧盟运营三个月后进行审查并向DPC提供报告。”

上月,由于爱尔兰监管机构紧急寻求谷歌未能向其提供的信息,谷歌的竞争对手ChatGPT在欧盟的发布被推迟。这包括没有向DPC提供数据保护影响评估(DPIA),这份关键的合规文件是用于识别基本权利的潜在风险并评估缓解措施。因此,未能拿出DPIA是一个非常大的监管危险信号。

经知情人士证实,目前DPC已存在Bard相关DPIA。

在一篇官方博客推文中,谷歌没有立即提供任何关于为减少其在欧盟的监管风险而采取的具体措施的细节,但其声称“已就这一扩张积极与专家、政策制定者和隐私监管机构接触”。

有媒体联系到谷歌,询问其在欧盟推出Bard之前所做的透明度和用户控制调整。一位发言人强调了谷歌关注的一些领域,这些领域将确保负责任地推出相关技术,包括限制拥有谷歌账户的18岁以上用户访问Bard。

值得注意的是,这位谷歌发言人标记了新Bard隐私中心,她建议用户可以更容易地查看可用隐私控制的解释。有信息显示,谷歌声称Bard的法律依据包括履行合同和合法利益。

谷歌还指出,随着产品的开发,可能会要求同意特殊处理数据。谷歌似乎为用户提供的唯一明确标记的数据删除选项是删除谷歌内部Bard使用活动的能力——用户没有明显的方式或途径要求谷歌删除用于训练聊天机器人的个人数据。

尽管谷歌确实提供了一个网络形式,允许用户报告使用时遇到的问题或法律问题,但其规定用户可以要求更正生成的关于自己的虚假信息,或反对处理自身数据(如果根据欧盟法律依赖合法利益进行处理,则后者是一项要求)。

谷歌提供的另一种形式,允许用户根据自己的政策或适用法律要求删除内容。显而易见,这意味着侵犯版权,但谷歌也建议用户,如果用户想反对谷歌对其数据的处理或要求更正,可以使用这种形式——所以,这类似用户可以选择“从你的人工智能模型中删除我的数据”。

谷歌发言人指出的其他调整与用户对其Bard活动数据的保留控制有关,或者实际上与不记录其活动的能力有关。发言人还表示:“用户还可以选择Bard在谷歌账户中存储数据的时间-默认情况下,在其谷歌账户中最多存储18个月的Bard活动记录,若用户愿意,可以将其更改为3个月或36个月,甚至还可以选择完全关闭该功能,并轻松删除g.co/Bard/myactivity上的Bard活动。

粗略来看,谷歌在Bard的透明度和用户控制领域的做法与OpenAI在意大利DPA的监管审查后对ChatGPT所做的更改非常相似。今年早些时候,意大利Garante命令OpenAI暂停本地服务,同时列出了一系列数据保护问题,吸引了众多网友的关注。

几周后,ChatGPT根据最初的DPA指示恢复了在意大利的服务。包括增加关于用于开发和培训ChatGPT的数据处理的隐私披露;为用户提供选择不进行数据处理以培训其人工智能的能力;并为欧洲人提供了一种要求删除用户数据的方式,包括如果用户无法纠正聊天机器人产生的错误数据。

除此之外,OpenAI还被要求在短期内设置准入年龄门槛,并致力于增加更强大的年龄保证技术,以减少儿童的安全问题。值得注意的是,意大利命令OpenAI删除提及履行合同的要求,作为处理过程的法律依据,称其只能依赖同意或合法利益。在这方面,法律依据是EDPB工作组正在研究的问题之一。

除了迫使OpenAI立即做出一系列改变以回应其担忧外,意大利DPA部门还对ChatGPT展开调查。经Garante的发言人证实,调查仍在进行中。

其他欧盟DPA也表示,他们正在调查ChatGPT,该公司对整个欧盟的监管调查持开放态度,因为与谷歌不同,它不是任何成员国的主要机构。这意味着OpenAI ChatGPT与谷歌Bard相比,可能存在更大的监管风险和不确定性。

这是一个更复杂的合规情况,因为Open AI必须处理来自多个监管机构的入境问题,而不仅仅是主要的DPA。如果欧盟DPA能够就人工智能聊天机器人的共同执法立场达成一致,EDPB工作组可能有助于减少该领域的监管不确定性。

也就是说,一些权威机构已经在制定人工智能生成技术战略。例如,法国的CNIL在今年早些时候发布了一项人工智能行动计划,其中规定将特别注意保护网络上的公共数据不被窃取,OpenAI和谷歌都使用这种做法来开发ChatGPT和Bard等大型语言模型。

然而,尽管全球的监管努力正在进行,但人工智能产品的发展仍然存在许多挑战。由于技术的发展速度远远超过了法律的制定速度,使得监管往往滞后于现实。同时,不同国家和地区的监管规定可能存在差异,尤其给跨国公司带来了挑战。如何在遵守当地法规的同时保持产品的竞争力和用户体验,成为了不得不面对的问题。

此外,监管机构也需要平衡不同利益之间的关系。一方面,他们需要保护公众的利益,确保AI产品的安全性和公平性;另一方面,他们也需要考虑到创新和发展的需要,避免过度限制技术的发展和应用。这是一个需要谨慎权衡的问题。

人工智能产品的发展的确带来了许多便利,但同时也引发了一些重要的隐私问题和监管挑战。全球的监管机构需要在保护隐私、确保公平和促进创新之间找到平衡点。这需要各国的政策制定者和科技行业的从业者共同努力。只有这样,我们才能真正从AI技术的进步中受益,同时也能确保我们的隐私权益得到充分的保护。

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注