

OpenAI创始人之一,著名人工智能研究员Ilya Sutskever宣布成立一家新的公司,名为Safe Superintelligence Inc. (SSI),专注于打造“安全超级智能”。
Sutskever一直致力于AI安全领域的研究,此前与OpenAI的Jan Leike共同领导公司内部的AI安全团队。在他离开OpenAI投身新事业之际,距离Leike辞去Anthropic的职务仅过去5个月。
值得注意的是,Sutskever和Leike都曾就AI发展应以何种速度进行公开表达过担忧,强调其重要性,而非仅仅追求更快速的增长。目前,他们又一次携手合作。
第三,Sutskever在社交媒体平台上宣布了SSI的成立,并阐述了公司的使命:构建一个既安全又强大的“安全超级智能”AI。SSI致力于以一种全新的视角,从一开始就将安全和性能结合起来。
据他透露,SSI将专注于AI的安全性和保障,其近期目标是建立一个精简的团队,集中精力攻克难点和难题。与OpenAI不同的是,SSI将避免受到短期商业压力的干扰,从而更专注研究。
该公司明确表示,SSI的唯一目标是推进安全超智能的研发。与典型的风险投资模式不同,它不受传统商业模式的束缚。SSI的业务重点完全在于技术突破。
值得关注的是,Sutskever离开OpenAI的消息,在人工智能领域引起了广泛关注。SSI将位于帕洛阿尔托和特拉维夫,旨在吸引全球顶尖人才。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/fc356npo暂无评论...