Anthropic加强AI模型安全措施,以确保负责任技术的扩展

4周前发布AI俱乐部
3 0 0
Anthropic加强AI模型安全措施,以确保负责任技术的扩展的封面图

最近,人工智能公司Anthropic发布了最新更新的“负责任扩展”政策,明确了哪些模型需要额外的安全保护。这一举措旨在确保在推出新技术前,能够有效防范可能的风险。

根据Anthropic在其博客中所述,如果在对某个AI模型进行压力测试时发现,该模型有可能帮助一个“资源适中的国家程序”开发化学和生物武器,Anthropic将会在正式推出该技术之前,首先采取新的安全保护措施。此外,若模型有能力全自动化初级研究员的工作,或在技术快速扩展中带来过大的加速效应,公司也会相应加强安全措施。

Anthropic在本月早些时候完成了一轮新的融资,估值达到615亿美元,成为AI初创公司中估值最高的之一。不过,与OpenAI相比,这一估值仍显微不足道,后者近日宣布完成了400亿美元融资,总估值达到了3000亿美元。未来十年,生成性AI市场预计将超过1万亿美元,市场竞争愈发激烈,包括谷歌、亚马逊和微软等科技巨头都在积极推出新产品和功能。而来自中国的竞争也逐渐显现,例如DeepSeek的AI模型在美国迅速走红便是一个例子。

在去年十月发布的“负责任扩展”政策中,Anthropic还提到会进行物理办公室的安全检查,旨在发现潜在的监控设备。该公司确认,已成立了高管风险委员会,并建立了内部安全团队。此外,他们还将引入“物理”安全流程,利用先进的检测设备和技术进行监控设备的侦测,确保公司内部的安全。

Anthropic在AI安全和责任方面的不断努力,不仅是为了保护自身的技术,更是对整个行业健康发展的重要保障。

快讯中提到的AI工具

DeepSeek
DeepSeek

深度求索:引领未来人工智能技术的探索与创新

OpenAI
OpenAI

致力于创造对全人类有益的安全 AGI

© 版权声明:
本文地址:https://aidh.net/kuaixun/13mv8l6b

暂无评论

none
暂无评论...