自从生成式人工智能热潮兴起以来,有关数据安全性的争议就始终不断。事实证明,即便是“头部大厂”微软也有数据泄露的风险。据一家网络安全公司的最新研究显示,微软公司的人工智能研究团队数月前就曾意外在软件开发平台GitHub上泄露了大量私人数据,其中涵盖了3万多条微软团队的内部信息。虽然没有涉及用户信息,但正如在上周一场以管理人工智能为主题的闭门论坛上特斯拉CEO马斯克所说,“对我们来说,重要的是要有一个裁判”。
访问权限设置错误
一个小小的设置失误,导致微软在近三年的时间里将大量内部数据暴露在外。当地时间9月18日,据网络安全公司Wiz报告,公司在对云托管数据的泄露问题进行持续调查时,发现微软AI研究团队在发布开源数据时意外泄露38TB的隐私数据,其中包含3万多条员工内部信息。
据了解,导致该次数据泄露的源头是微软在GitHub存储库中提供了一个属于微软云存储系统Azure Storage的网址链接,可以用来下载开源代码和用于图像识别的AI模型。然而,由于微软的AI开发人员在网址中包含了一个过于宽松的共享访问签名(SAS)令牌,此链接竟被设置成授予整个存储账户的权限。也就是说,点进该链接的任何人都能访问与之相关的存储账户的全部内容。
更可怕的是,该链接给予访问者的权限不是只能观看、不能修改的“只读”,而是“完全控制”,意味着任何人都有可能在整个账户中删除、替换或添加恶意内容。
在受到影响的全部数据中,包括了两名微软员工的个人电脑备份,还有用于微软服务的密码、秘钥以及Teams上来自359名微软员工的超3万条内部群聊消息。
Wiz表示,这个网址链接从2020年就开始暴露数据,直到Wiz发现该问题并在今年6月22日和微软分享了研究成果。微软在两天后的6月24日撤销了有问题的SAS令牌,并在今年8月16日完成了对组织内部潜在影响的调查。
对于此事,微软发言人表示,微软已确认没有用户数据遭到泄露,也没有其他内部服务受到威胁。微软安全响应中心在当日发布的博客文章中表示,收到Wiz的研究结果之后,他们已经改进了GitHub的秘密扫描服务,该服务能够监控所有公开的开源代码改动,其中包括那些过于宽松的SAS令牌。
AI安全如何确保
事件再一次引起了对于AI数据安全问题的关注。Wiz的联合创始人兼首席技术官阿米·卢特瓦克(Ami Luttwak)指出:“很多开发团队都需要处理大规模的数据,需要与同事共享数据或在公共开源项目上进行合作,像微软这样的案例将会变得越来越难以监控和避免。”
一位从事IT研发的工程师也对北京商报记者表示,大模型时代需要跑通的数据更多,人工智能企业需要收集和利用大量数据来训练算法模型,由此出现漏洞的概率也就更大。
在2021年,Wiz就曾指出过微软Azure基础设施中的一个“超级漏洞”,其开源应用Jupyter Notebook功能中的一系列错误配置让黑客能够访问、修改和删除数千名Azure客户的数据。随后,微软发布声明称该问题已得到解决,并用电子邮件通知了数千名受其影响的云客户。
在天使投资人、资深人工智能专家郭涛看来,人工智能行业保护用户隐私和数据安全需要多方面协同发力,一方面,人工智能技术公司需要遵循严格的隐私数据保护相关的法律法规,采取相应的措施和技术手段来确保数据的安全性、完整性和机密性,如匿名化、去标识化等技术来保护用户因素和数据安全;另一方面,提高数据利用的透明度,向用户解释如何收集和使用数据,以及为什么需要这些数据,用户有权决定是否愿意提供这些数据。
“要有一个裁判”
与此同时,监管部门也正在努力解决如何减轻风险。上周,美国商务部长雷蒙多等政府高官在白宫召集AI行业高管,宣布Adobe、Cohere、IBM、英伟达、Palantir、Salesforce、Scale AI和Stability 8家公司承诺,采取自愿监管措施管理AI技术开发风险,包括在推出前展开安全测试、构建将安全放在首位的系统、为AI生成内容添加数字水印等。
具体来看,上述8家公司承诺:在发布AI系统前进行内部和外部安全测试、对网络安全和内部威胁保障措施投资、推进第三方发现和报告AI系统存在的漏洞等。
此外,8家公司还承诺,对AI生成的内容加上水印以防止虚假信息的传播,公开报告安全风险和社会风险,开发有助于解决癌症预防、气候变化等社会挑战的AI系统等。
这8家为第二批承诺管控AI风险的公司。今年7月,已有7家领先的人工智能公司——亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI自愿承诺,将帮助推动AI技术安全且透明地发展。
当天,马斯克、微软公司联合创始人比尔·盖茨和Meta首席执行官扎克伯格等科技公司大佬还受邀参加了一场人工智能峰会,商讨未来人工智能的监管方式。
作为推动人工智能立法的一部分,美国参议院多数党领袖查克·舒默组织了这次私人论坛。他表示,他问了在场的每个人——包括约20名科技高管、倡导者和怀疑论者——政府是否应该在人工智能的监督中发挥作用,“每个人都举手了,尽管他们有不同的观点,”他说。
在国会方面,虽然国会议员也同意需要加强立法,但对于具体行动也一直没有达成共识。一些国会成员担心监管会“过度”,而另一些议员则认为没有足够的监管将难以发现“潜在风险”。
“人工智能出错的后果是严重的,所以我们必须积极主动,而不是被动反应。”马斯克在离开前表示,需要一个监管机构确保企业采取安全、符合公众普遍利益的行动。“对我们来说,重要的是要有一个裁判。”
北京商报记者 方彬楠 赵天舒