

知名人工智能专家纷纷警告,要警惕被称为 “人工智能灾难” 的潜在风险。杰弗里·辛顿已卸任 OpenAI 的职务,以便能够更自由地对此问题发表观点。辛顿表示,他担忧大型语言模型的潜在危险,并认为 OpenAI 在安全措施方面可能行动迟缓。
OpenAI 坚称,他们始终致力于以负责任的态度开发人工智能,并已采取多项措施来降低潜在风险。然而,辛顿认为,该公司可能过于关注技术进步,而忽视了潜在的安全隐患。"OpenAI 的人工智能开发速度可能超越了他们充分理解其潜在风险的能力," 他如是说。
辛顿的警告引起了广泛关注,此前他曾因深度学习领域的贡献而备受赞誉。他在 2023 年 5 月的声明中,对人工智能可能带来的长期风险表示担忧。他此前的研究伙伴是埃隆·马斯克,后者曾参与 OpenAI 的创立,但后来因对公司发展方向的担忧而离开。马斯克认为,OpenAI 实际上已成为一家闭源的盈利机构。
值得注意的是,Encode 公司的创始人表示,OpenAI 的人工智能发展方向可能会对社会造成不利影响。Encode 是一家风险投资公司,专注于投资 OpenAI 的竞争对手。该公司创始人 Sneha Revanur 此前曾公开批评大型语言模型在加剧社会不公和传播有害信息方面的影响,并认为有必要开发更安全的替代方案。
据悉,OpenAI 的组织结构 OpenAI Inc 是一家公司,隶属于 OpenAI GP,后者又隶属于 OpenAI Global LLC 的非盈利母公司。OpenAI 旨在通过开发 AGI 实现通用人工智能,使人工智能系统在大多数具有经济价值的任务中超越人类。OpenAI 在 2024 年 12 月 27 日的一份声明中指出,其管理章程禁止该公司追求不利于公共利益 (PBC) 的 AGI 发展。
尽管 OpenAI 坚称其致力于负责任的人工智能开发,但许多专家对该技术的潜在风险表示担忧。早在 11 月,马斯克就曾起诉 OpenAI,指控其违背了最初的使命,即为全人类的利益开发开源人工智能。而且 OpenAI 若胜诉,马斯克可能会研发自己的 AI 平台 xAI 与之竞争。
要点回顾:
✨ 辛顿警告 OpenAI: 他担心 OpenAI 在人工智能安全方面的行动不够迅速,这可能带来风险。
☢️ 马斯克起诉 OpenAI: 指责 OpenAI 偏离了最初的非营利使命,实际上已成为一家闭源公司。
🚀 人工智能的潜在隐患: OpenAI 的技术快速发展可能超越了人们对相关风险的充分理解,需要更加谨慎。