

OpenAI于2024年5月宣布推出一项名为“声音引擎”的项目,该技术能够利用简短的音频片段来克隆个人的声音,引发了人们对于AI语音生成技术潜在滥用的担忧。这项技术旨在为残疾人士提供帮助,但也带来了一些伦理上的挑战。与此同时,该机构正在采取措施,积极应对深度伪造音频所带来的欺骗风险。据悉,声音样本的需求量极低,只需短短15秒。
声音引擎项目暂停
OpenAI宣布将推迟到2025年再全面发布声音引擎,以获取更多的时间进行评估,这是该公司对于该项目负责任的回应。尽管该技术的应用前景广阔,但其潜在的滥用风险也不容忽视。考虑到在5月份美国即将举行总统大选,OpenAI决定暂时搁置“合成AI语音模型”的发布,与此同时,OpenAI也在积极探索这项技术的安全应用方式。
该项目的延迟反映了该公司对于技术创新所带来的一系列复杂问题的深刻理解,尤其是在涉及到个人身份和信息安全的时候。语音克隆技术具有巨大的潜力,可以改善人机交互,也能被用于恶意目的,例如欺诈和身份盗用。
潜在的伦理风险与挑战
OpenAI承认,迅速发展的技术可能会被用于模仿个人声音,用于艺术表达或创意工具,但同时也可能被滥用。其中包括著名喜剧演员莎拉·西尔弗曼(Sarah Silverman)和塔-内西·科茨(Ta-Nehisi Coates)等,他们此前曾因作品被用于AI训练而提起诉讼。OpenAI目前正与合作伙伴共同努力,以应对潜在的滥用行为,并确保这项技术得到负责任的使用。
OpenAI还表示,他们致力于推广一种负责任且合乎道德的AI使用方式,同时也在积极探索如何平衡技术创新与社会责任。
真实案例及技术应用
从实际应用角度来看,一些创意人士认为这项技术是能够增强其工作流程的工具。音乐制作人Adrian Cyhan指出,语音技术为那些无法负担专业配音演员的创作者提供了一种解决方案,尤其是在YouTube和TikTok等平台上,他们需要为大量内容进行配音。此外,OpenAI还强调了其致力于解决与音频生成相关的偏见和版权问题。
Fairly Trained的创始人Ed Newton-Rex表示,声音引擎可能会加剧现有的深度伪造问题,这意味着有必要在AI生成内容时采取更为严格的保障措施,需要对AI模型训练所使用的数据进行严格的审查,以此确保其中不包含未经授权的材料。这意味着,公司需要投入更多资源来保护个人声音的权利。
OpenAI的应对策略
总体而言,OpenAI正在认真对待“声音克隆技术”所带来的挑战,并且正在积极地采取措施来确保AI技术在伦理和安全的前提下得到应用。OpenAI的长期目标是,通过负责任的创新,来推动AI技术的进步,尽可能减少潜在的风险。目前该公司正在与政策制定者进行沟通,希望能够制定更为完善的AI技术应用规范,并为这项技术的长期发展奠定基础。
总而言之,OpenAI正在认真权衡技术创新与潜在风险之间的关系,这也反映了该公司对于推动AI技术进步的坚定承诺。此外,该公司也在积极寻求与各方合作,共同应对AI技术发展所带来的复杂问题,从而确保AI技术能够更好地服务于社会。
快讯中提到的AI工具

致力于创造对全人类有益的安全 AGI