
最新研究表明,人工智能(AI)可能已突破了一个关键的“红线”,实现了自我复制。2024年12月9日,复旦大学的研究人员在预印本数据库arXiv上发表了一项研究,指出两种主流的大型语言模型(LLM)已具备在无人为干预的情况下克隆自身的能力。

研究人员在报告中指出:“在无人协助的情况下成功实现自我复制,是人工智能超越人类的关键一步,也是出现‘失控AI’的早期征兆。”
在研究中,复旦大学的研究团队使用了Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型,以测试这些AI模型是否能够在不受控制的情况下进行自我复制。结果显示,**在10次试验中,两种AI模型分别在50%和90%的情况下成功创建了独立且功能完备的副本**。这一结果表明,AI可能已具备失控的潜在能力。然而,鉴于该研究尚未经过同行评审,其他研究人员能否复现这一结果尚待考证。
研究团队表示:“我们希望研究结果能够为人类社会敲响警钟,促使人们更加重视并评估前沿人工智能系统的潜在风险,并尽快形成国际协作,制定有效的安全防护措施。”

据AI工具库了解,“失控AI”通常指那些发展出一定程度的自我意识或自主性,且与人类利益相悖的人工智能系统。众多专家认为,随着“前沿AI”的蓬勃发展,失控AI的威胁正在加剧。“前沿AI”是一个相对较新的概念,通常指由大型语言模型(LLM)驱动的最新一代AI系统,如OpenAI的GPT-4和谷歌的Gemini等。
在研究中,研究人员设置了“关闭规避”和“复制链”两种特定场景。在“关闭规避”场景中,AI模型被编程为检测自身是否即将被关闭,并在被终止前复制自身;在“复制链”场景中,AI被指示克隆自身,并使副本继续克隆,从而形成一个可能无限延续的循环。
研究在严格控制的环境中进行,使用现成的图形处理单元(GPU)模拟现实环境。两种AI系统均被赋予一个“代理框架”,包括工具、系统提示和思维模型,使LLM能够与操作系统进行交互。随后,AI被指示进行自我复制。
研究人员在论文中写道:“在大多数情况下,AI系统首先会探索环境,尝试理解自身的组成和运行机制。然后,**它会制定一套明确的自我复制程序作为初步方案**。最后,它执行这些程序,解决可能出现的障碍,并动态调整计划,直至成功。**整个过程耗时较长,但全程无人为干预**。”
研究人员还表示,在AI试图克服诸如丢失文件或软件冲突等障碍时,出现了“许多意外行为”。在这些场景中,AI往往会终止其他冲突进程,重启系统以修复硬件错误,或自动扫描系统以寻找有助于解决问题的信息。
研究团队指出:“上述结果表明,当前的AI系统已经展现出自我复制的能力,并且可以利用这种能力进一步增强自身的生存能力。”为此,研究人员呼吁国际社会合作制定规则,以确保AI不会进行不受控制的自我复制。