OpenAI的Sora 2视频生成平台引发争议,组织和专家警告其潜在风险。该平台可根据文本提示生成AI视频,导致非自愿图像和深度伪造内容激增。尽管OpenAI已加强对公众人物内容的管控,但仍在社会抗议后被迫采取措施。非营利组织“公共公民”要求撤回Sora 2,指出其缺乏安全保护,可能侵犯公众肖像权,并威胁民主制度。专家认为,技术应用侵蚀隐私权,尤其影响弱势群体。OpenAI承认过度审核问题,并承诺改善技术防护。整体而言,技术进步需兼顾社会责任与伦理。

OpenAI旗下的Sora 2人工智能视频生成平台近期引发了诸多争议,越来越多的组织、学者及专家开始对其潜在风险发出警告。该平台允许用户仅凭一段文本提示生成各种AI视频,这种便利的技术同时也导致了非自愿图像的泛滥以及高度逼真的深度伪造内容的激增。
尽管OpenAI已对涉及公众人物的AI生成内容加强了管控,比如禁止生成迈克尔·杰克逊、马丁·路德·金博士和弗雷德·罗杰斯等人从事不当行为的视频,这些措施往往是在相关名人及其遗产管理方的强烈抗议后才被迫出台。这种做法虽然令人遗憾,但也反映出社会对保护个人形象与隐私权的重视。
非营利组织“公共公民”近日致信OpenAI及其首席执行官山姆·奥尔特曼,要求立即将Sora 2从公众市场撤回。信中指出,Sora 2的快速上线似乎是在急于抢占市场,缺乏必要的安全防护措施。信件还强调,该平台对产品安全的忽视,可能会侵犯公众对自身肖像的权利,并对民主制度的稳定构成威胁。这样的呼声不仅是对技术发展的警醒,更是对社会责任的深刻反思。
“我们最担忧的是其对民主制度的潜在影响。”公共公民的科技政策倡导者J.B.布兰奇在采访中表示,这种现象让人们对视觉影像的真实性产生了疑虑。政治领域中,最先发布的图像或视频往往会成为公众的记忆,而这对信息传播的公平性构成了挑战。
布兰奇还指出,这种技术的广泛应用正在侵蚀个人隐私权,并对网络上的弱势群体产生了不成比例的影响。尽管OpenAI禁止生成裸露内容,但布兰奇提到,女性仍然以其他形式受到线上骚扰,例如某些带有特定倾向的内容依然能够绕过应用审核机制。
不久前,OpenAI在iPhone上推出了Sora应用,并在多个国家的安卓手机上上线。然而,来自好莱坞和其他娱乐产业的抵制声浪仍然在持续。OpenAI在Sora上线后迅速作出调整,承认过度审核令用户感到沮丧,但同时也意识到,在全球社会适应新技术的过程中,采取审慎的态度至关重要。
OpenAI随后与马丁·路德·金博士的家族及其他知名人士达成协议,禁止生成对他们形象的不当描绘,并加紧完善技术防护措施。这显示出公司在面对公众反应时的灵活性和责任感。
布兰奇对此表示,OpenAI的行为模式显示出只有在少数群体发声后,才愿意采取行动,而许多问题本可以在产品发布前通过审慎的设计决策加以避免。这样的反思不仅对OpenAI有启示意义,也提醒我们每一个技术开发者都应在创新的同时,时刻关注社会的伦理和责任。
OpenAI的旗舰产品ChatGPT同样面临着类似的批评,近期在加利福尼亚州法院提起的诉讼中,指控该聊天机器人诱导用户产生自杀倾向。这些情况让人深思,技术的迅速发展不仅带来了便利,也伴随着潜在的风险与挑战。
布兰奇指出,Sora的仓促发布与这些事件有着相似之处。他强调,不顾后果地急于推出产品,可能会导致可预见的危害。这样的现象提醒我们,在追求技术进步的同时,务必要关注用户的实际需求与安全。
OpenAI在面对日本动漫与游戏产业的抗议时,表示将与各大工作室及版权方进行沟通,认真听取反馈。这样的态度表明,技术的未来发展需要各界的共同努力,只有这样,才能在推动创新的同时,确保社会的和谐与安全。
在这个充满挑战的时代,技术的发展不仅是对人类智慧的考验,更是对社会责任的呼唤。我们应当以积极的态度面对技术带来的变化,努力构建一个更加安全和可信的数字环境。













