

据报道,OpenAI 的联合创始人兼首席科学家伊利亚·萨茨克维(Ilya Sutskever)正在领导一个名为“安全超级智能”(Safe Superintelligence,简称 SSI)的新团队,该团队获得了 1000 万美元的启动资金,并计划在未来几年内增加到 3 亿美元。该团队的目标是开发一种能够控制远超人类智能水平的通用人工智能。
据知情人士透露,除了风险投资公司 Greenoaks Capital Partners 的早期投资外,该团队还获得了其他投资者的支持,总额达到 5000 万美元。Greenoaks 长期以来一直投资于人工智能领域,其投资组合包括 Scale AI 和 Databricks 等公司。据报道,这笔资金将用于支持 Sutskever 及其团队未来几年的研究。
据称,在 SSI 团队中,Ilya Sutskever 致力于开发一种可以限制潜在危险的人工智能,他曾在 OpenAI 负责监督人工智能模型的安全性。早在 2023 年 5 月,他就与 OpenAI 的首席执行官山姆·奥特曼(Sam Altman)讨论了人工智能安全问题。此外,OpenAI 的前研究人员丹尼尔·格罗斯(Daniel Gross)和丹尼尔·利维(Daniel Levy)也加入了 SSI 团队。该团队专注于创建安全的人工智能系统,以避免在未来出现失控的情况。
Ilya Sutskever 在社交媒体上表示:“我们已经为此筹备了十年之久,创建安全超级智能的挑战意义重大,解决这一难题至关重要。” 他强调,开发能够确保人工智能安全的技术是当务之急,这样才能避免潜在的风险。
值得一提的是,OpenAI 的首席执行官山姆·奥特曼此前曾因未能充分关注人工智能的安全问题而受到批评,这促使 Sutskever 离开了 OpenAI,并最终成立了 SSI 团队。
要点:
✨ SSI 团队获得了 1000 万美元的初始资金,并计划筹集 3 亿美元。
🚀 其目标是开发一种能够控制远超人类智能水平的安全人工智能。
🧠 Sutskever 认为,人工智能的安全是至关重要的,我们需要尽快采取行动。