OpenAI 联合创始人警告:超级智能 AI 发展或将“不可预测”

5个月前发布AI俱乐部
4 0 0
OpenAI 联合创始人警告:超级智能 AI 发展或将“不可预测”的封面图

在近期的 NeurIPS 大会上,OpenAI 的研究负责人兼联合创始人伊利亚·苏茨克维尔强调了对安全人工智能 (AI) 发展的重视。他认为,AI 的发展必须与确保其安全并避免潜在的负面后果同步。

相关阅读:关于AI绘画,关于图像生成器Midjourney

苏茨克维尔指出,为了应对 AI 带来的“失控风险”,OpenAI 正在投入大量资源。他提到,目前的人工智能系统在理解人类意图方面还存在不足,这可能会导致不符合人类期望的结果。此外,苏茨克维尔还强调,当前的 AI 安全措施并未充分解决高级 AI 带来的潜在风险,需要进一步加强。

他进一步解释说,AI 不仅需要能够实现特定目标,还需要与人类的价值观对齐。苏茨克维尔认为,确保 AI 的行为符合人类的期望,是至关重要的。

为此,OpenAI 成立了“安全超级智能”团队,专注于解决 AI 安全问题。该团队致力于构建能够保证 AI 系统安全性的技术。他们计划在未来四年投入大量计算资源,用于开发先进的 AI 安全工具和方法。

苏茨克维尔还强调了在 AI 领域进行合作的重要性,他呼吁更多的人才加入到解决 AI 安全挑战的行列中来,共同为 AI 的安全发展贡献力量。

要点总结:

💡 AI 存在“失控风险”,需要投入资源进行应对,避免 AI 带来负面影响。  

🧠 AI 需要与人类价值观对齐,确保其发展符合人类的期望。  

💰 OpenAI 成立“安全超级智能”团队,计划投入大量计算资源,专注于 AI 安全问题。  

快讯中提到的AI工具

OpenAI
OpenAI

致力于创造对全人类有益的安全 AGI

Midjourney
Midjourney

开启 AI 绘画的奇幻之旅

© 版权声明:
本文地址:https://aidh.net/kuaixun/deal1oen

暂无评论

none
暂无评论...