

最近,人工智能公司Anthropic发布了最新更新的“负责任扩展”政策,明确了哪些模型需要额外的安全保护。这一举措旨在确保在推出新技术前,能够有效防范可能的风险。
根据Anthropic在其博客中所述,如果在对某个AI模型进行压力测试时发现,该模型有可能帮助一个“资源适中的国家程序”开发化学和生物武器,Anthropic将会在正式推出该技术之前,首先采取新的安全保护措施。此外,若模型有能力全自动化初级研究员的工作,或在技术快速扩展中带来过大的加速效应,公司也会相应加强安全措施。
Anthropic在本月早些时候完成了一轮新的融资,估值达到615亿美元,成为AI初创公司中估值最高的之一。不过,与OpenAI相比,这一估值仍显微不足道,后者近日宣布完成了400亿美元融资,总估值达到了3000亿美元。未来十年,生成性AI市场预计将超过1万亿美元,市场竞争愈发激烈,包括谷歌、亚马逊和微软等科技巨头都在积极推出新产品和功能。而来自中国的竞争也逐渐显现,例如DeepSeek的AI模型在美国迅速走红便是一个例子。
在去年十月发布的“负责任扩展”政策中,Anthropic还提到会进行物理办公室的安全检查,旨在发现潜在的监控设备。该公司确认,已成立了高管风险委员会,并建立了内部安全团队。此外,他们还将引入“物理”安全流程,利用先进的检测设备和技术进行监控设备的侦测,确保公司内部的安全。
Anthropic在AI安全和责任方面的不断努力,不仅是为了保护自身的技术,更是对整个行业健康发展的重要保障。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/13mv8l6b暂无评论...