最近,微软在GitHub上发生了一起数据泄露事件,泄露了38TB的个人数据,其中包括密码、密钥和内部信息,这是由于错误使用Azure平台的共享访问签名(SAS)造成的。SAS令牌的不当使用和缺乏监控导致数据泄露了数年,突显了AI模型训练的安全挑战。此事件强调了大规模数据依赖的AI开发过程需要更强的安全措施和协作。