

当前人工智能领域的焦点转向了一个新项目,旨在确保未来AI的安全性,这个项目由OpenAI前首席科学家Ilya Sutskever领衔,他离开了这家公司去追求自己的愿景。
据悉,Ilya Sutskever与Daniel Gross和Daniel Levy合作,共同创立了SSI,他们的目标是在十年内解决如何控制超级智能AI的问题。
SSI的独特之处在于,它将专注于一个目标,并且得到了风险投资公司(如Andreessen Horowitz和Sequoia Capital)的支持。据报道,该团队计划保持较小的规模,初期仅有十几名员工,但最终可能会扩展到50人。该项目的重点在于构建一个能够超越人类智慧的安全AI,从而避免现有方法中常见的复杂性和不确定性,确保AI技术的发展能够真正地服务于人类。
根据Gross的说法,他们正在组建一个由顶尖人才组成的精干团队,专注于解决超级智能带来的安全问题。他们的理念是,通过专注和简化方法,可以更快地取得突破性进展。SSI的目标是实现AI技术的安全发展,确保其长期对人类有益。
Sutskever表示,超级智能的安全性问题是他一直以来最关心的问题。他曾在OpenAI投入了大量精力,致力于确保AI的发展对人类有益。尽管他离开了OpenAI,但他仍然坚信,需要有一个专门的团队来应对AI可能带来的风险。
从本质上讲,SSI的目标是创造出一种安全的AI,它可以保护人类免受潜在的威胁,并确保这项技术能够持续地为人类服务,从而实现其应有的价值。
要点总结:
1. 🔥 由OpenAI前首席科学家Ilya Sutskever创立的SSI,致力于在未来十年内解决AI安全问题,并计划保持小规模团队,最终扩展到50人。
2. 🌎 该项目专注于AI安全,旨在确保技术的有益发展,避免潜在风险。
3. 🔍 SSI致力于构建“安全超级智能”,通过专注和简化方法,实现更快速的突破。
快讯中提到的AI工具

致力于创造对全人类有益的安全 AGI