微软AI模型开发中38TB敏感数据遭遇泄露风险

2年前发布AI俱乐部
6 0 0
微软AI模型开发中38TB敏感数据遭遇泄露风险的封面图

最近,微软在GitHub上发生了一起数据泄露事件,泄露了38TB的个人数据,其中包括密码、密钥和内部信息,这是由于错误使用Azure平台的共享访问签名(SAS)造成的。SAS令牌的不当使用和缺乏监控导致数据泄露了数年,突显了AI模型训练的安全挑战。此事件强调了大规模数据依赖的AI开发过程需要更强的安全措施和协作。

© 版权声明:
本文地址:https://aidh.net/kuaixun/kqt5g7i6

暂无评论

none
暂无评论...