

据OpenAI官网显示,著名人工智能科学家(Ilya Sutskever)正在致力于打造安全超级智能(Safe Superintelligence, SSI),旨在确保在大型计算集群上构建一个安全可控的AI系统,初期将投入200名精英人才,专注于实现技术突破。SSI 的目标是应对潜在风险,通过整合安全措施和先进技术,保证未来通用人工智能的安全可靠。
按照他们的构想,SSI 将专注于“解决超智能问题”,而非追求更快速的产品迭代。该项目旨在确保人工智能的安全,而不是像 ChatGPT 那样追求快速商业化。其核心目标是构建安全可控的超级人工智能(ASI)。据了解,“ASI”的理念源于OpenAI 创始人之一,也是前OpenAI 首席科学家(Sam Altman)长期以来对人工智能发展方向的担忧。
从实际操作层面来看,此举意味着需要从底层重新设计,以便从一开始就考虑到安全问题。这一战略转变反映了创始人对人工智能技术发展潜在风险的重视。在去年12月的 NeurIPS 人工智能大会上,Sutskever 分享了他对“对齐理论”的看法,强调了确保AI 行为符合人类意图的重要性,从而避免潜在危害。他认为对齐理论能够为人工智能安全提供重要保障。
为了实现这个目标,Sutskever认为,必须在安全措施的框架内,同步提升人工智能系统的能力和智能化水平,从而应对潜在威胁,避免不可控的风险。目前,包括OpenAI、Anthropic以及Deepseek 等在内的多家科技公司,都在积极探索人工智能安全解决方案。去年11月,Sutskever 曾表示,人工智能训练过程需要建立一套完善的安全防护体系,以应对恶意攻击,并保障模型训练的安全性。
关键要点:
💡 SSI 团队规模较小,只有 200 人,专注于技术突破。
🔴 SSI 旨在解决超智能的安全问题,不追求商业利益。
🔷 Sutskever 提出的 “对齐理论” 旨在确保人工智能符合人类意图,保障其安全性。