

最近,有关 OpenAI 内部紧张局势的报道引起了广泛关注。据报道,在2023年11月,投资人彼得・蒂尔曾在阿尔特曼被解雇前夕向其发出警告,提醒他关注了解 AI 安全倡导者与公司商业方向之间的潜在冲突。
根据《华尔街日报》的报道,蒂尔在洛杉矶的一次私人晚宴上向阿尔特曼提出了这个问题。他特别提到了“有效利他主义”(Effective Altruism)运动在 OpenAI 内部的影响,并指出阿尔特曼未能意识到 AI 研究者尤利泽尔・尤德科夫斯基对公司的影响力。蒂尔对阿尔特曼说:“你并不知道尤利泽尔是如何让你公司的一半员工相信这些理论的。”
阿尔特曼对此不以为然,并提到了2018年埃隆・马斯克的离职。他认为,尽管马斯克和尤德科夫斯基曾多次发出有关 AI 风险的警告,但并没有影响公司的发展。然而,2024年的内部安全顾虑变得越发明显,许多关键的 AI 安全人员相继离开了OpenAI,包括首席科学家伊利亚・苏茨克维尔和负责“超级对齐”团队的扬・莱克。莱克公开批评公司的安全策略,声称他的团队为争取计算资源而努力奋战。
据称,首席技术官米拉・穆拉提和苏茨克维尔花费数月时间收集阿尔特曼不当管理行为的证据,记录了他在员工之间挑拨离间和绕过安全协议的行为。2024年发布 GPT-4o 后,由于安全测试被匆忙进行,引发了更多问题。穆拉提试图直接向阿尔特曼反映问题时,他却将人力资源代表带到她的个人会议上,持续了几周,这最终使得穆拉提决定不再与董事会分享她的担忧。
最终,董事会通过一系列保密视频会议决定解除阿尔特曼职务,其中包括苏茨克维尔在内的四名董事会成员准备了详细的违规行为文件。同时,也因为穆拉提向董事会报告了格雷格・布洛克曼绕过她与阿尔特曼直接沟通的行为,决定也解除了布洛克曼的职务。
虽然最初董事会解释很简单,称阿尔特曼未“始终如一地坦诚”,但面临大规模员工离职的威胁后,情况发生了逆转。最终,阿尔特曼和布洛克曼被重新任命,而穆拉提和苏茨克维尔也在支持他们复职的信上签字,尽管他们在解雇事件中扮演了重要角色。苏茨克维尔对员工支持阿尔特曼的行为感到意外,因为他最初认为员工会欢迎这些变动。
报道与之前的说法产生了矛盾,尤其是穆拉提声称她并未参与阿尔特曼的解雇。然而,系统性收集的证据表明她在事件中发挥了关键作用。最终,穆拉提和苏茨克维尔离开组建了自己的AI公司。这次调查进一步证实了在阿尔特曼短暂解职中AI安全问题的重要性,并揭示了OpenAI高层内部的深刻分歧,最终导致了组织在AI安全和发展方向上的重大改变。