前OpenAI科学家创办的AI初创公司SSI,估值强势突破200亿美元

3个月前发布AI俱乐部
4 0 0
前OpenAI科学家创办的AI初创公司SSI,估值强势突破200亿美元的封面图

OpenAI官网显示,著名人工智能科学家(Ilya Sutskever)正在致力于打造安全超级智能(Safe Superintelligence, SSI),旨在确保在大型计算集群上构建一个安全可控的AI系统,初期将投入200名精英人才,专注于实现技术突破。SSI 的目标是应对潜在风险,通过整合安全措施和先进技术,保证未来通用人工智能的安全可靠。

按照他们的构想,SSI 将专注于“解决超智能问题”,而非追求更快速的产品迭代。该项目旨在确保人工智能的安全,而不是像 ChatGPT 那样追求快速商业化。其核心目标是构建安全可控的超级人工智能(ASI)。据了解,“ASI”的理念源于OpenAI 创始人之一,也是前OpenAI 首席科学家(Sam Altman)长期以来对人工智能发展方向的担忧。

从实际操作层面来看,此举意味着需要从底层重新设计,以便从一开始就考虑到安全问题。这一战略转变反映了创始人对人工智能技术发展潜在风险的重视。在去年12月的 NeurIPS 人工智能大会上,Sutskever 分享了他对“对齐理论”的看法,强调了确保AI 行为符合人类意图的重要性,从而避免潜在危害。他认为对齐理论能够为人工智能安全提供重要保障。

为了实现这个目标,Sutskever认为,必须在安全措施的框架内,同步提升人工智能系统的能力和智能化水平,从而应对潜在威胁,避免不可控的风险。目前,包括OpenAI、Anthropic以及Deepseek 等在内的多家科技公司,都在积极探索人工智能安全解决方案。去年11月,Sutskever 曾表示,人工智能训练过程需要建立一套完善的安全防护体系,以应对恶意攻击,并保障模型训练的安全性。

关键要点:

💡 SSI 团队规模较小,只有 200 人,专注于技术突破。  

🔴 SSI 旨在解决超智能的安全问题,不追求商业利益。  

🔷 Sutskever 提出的 “对齐理论” 旨在确保人工智能符合人类意图,保障其安全性。

快讯中提到的AI工具

Super
Super

智能AI知识库,实现高效商业智能化的创新平台

OpenAI
OpenAI

致力于创造对全人类有益的安全 AGI

ChatGPT
ChatGPT

OpenAI开发的一款先进AI聊天机器人

© 版权声明:
本文地址:https://aidh.net/kuaixun/6e7mpagi

暂无评论

none
暂无评论...