AI科学家突破性进展:利用大模型自动探索人工生命

3个月前发布AI俱乐部
3 0 0
AI科学家突破性进展:利用大模型自动探索人工生命的封面图

近期,Sakana AI 的研究成果表明,他们已经成功地利用视觉-语言基础模型(vision-language foundation models, FMs)来探索人工生命 (Artificial Life, ALife) 的奥秘。更具体地说,他们利用 ASAL (Automated Search for Artificial Life,即人工生命自动搜索) 的方法,实现了人工生命体的自动发现,克服了传统人工生命研究中需要人为干预的局限性。

通常,人工生命系统的设计需要大量的人工调优和尝试,而 ASAL 的出现简化了这一过程,仅需一次运行即可完成。其核心思想是运用视觉模型来评估不同人工生命系统的特性,从而筛选出有趣的 ALife 系统。ASAL 能够自动发现三种典型的生命形式:

涌现行为的多样性:能够自动寻找并展示各种复杂且有趣的涌现行为的系统。例如,系统可能会自主演化出“单细胞”或“多细胞”等不同类型的结构,进而展现出高度多样化的行为模式。空间模式的复杂性:能够自动发现并生成具有高度复杂空间结构的系统。这些系统能够自主地创造出形态各异、精妙绝伦的图案。持续进化的潜力:能够发现那些具有持续进化潜力、甚至能够实现“开放式进化”的系统。

ASAL 的强大之处在于,它能够高效地搜索并筛选出那些蕴含丰富行为的 ALife 模型,例如 Boids、粒子生命 (Particle Life)、生命游戏 (Game of Life)、Lenia 以及神经元胞自动机 (Neural Cellular Automata)。该方法能够有效区分这些模型之间的差异,例如,Boids 模型能够涌现出集群行为,而 Lenia 模型则能够生成各种复杂的纹理图案,类似于传统细胞自动机的图案生成方式。

总而言之,ASAL 极大地降低了探索和发现新型人工生命系统的门槛。结合视觉模型强大的理解能力,ASAL 能够从大量的候选系统中快速识别出那些具有研究价值的系统,从而推动人工生命领域的发展。举例来说,该方法可以利用 CLIP 模型判断 Lenia 系统中是否存在某种特定形状,或者判断其是否类似于某个真实物体。

为了实现这一目标,研究人员采用了 CLIP(对比语言-图像预训练)模型,这是一种能够理解图像内容的技术。CLIP 模型具备将图像与文本描述关联起来的能力,从而实现对各种人工生命系统行为的理解。ASAL 的创新之处在于,它将传统的、基于人工设计的过程转变为一个自动化的搜索过程,极大地提高了效率,并降低了对专业知识的依赖。

实验结果表明,ASAL 能够有效地识别出各种有趣的 ALife 系统,并且能够找到那些使用传统方法难以发现的、具有复杂行为的 ALife 模型。值得注意的是,CLIP 在识别那些与自然图像相似的 ALife 模型时表现尤为出色,这或许与 CLIP 模型本身的训练方式有关,因为它大量地接触了自然图像数据。

鉴于此,这项研究为人工生命领域的研究开辟了新的途径,使得研究人员能够更加便捷地探索各种复杂系统的演化,例如,即使对相关领域知识不甚了解,也能借助该方法快速筛选出具有研究价值的系统。ASAL 的应用,不仅能够帮助我们发现新的人工生命现象,还能够加深我们对自然界复杂性的理解。

项目链接:https://github.com/SakanaAI/asal/

论文链接:https://arxiv.org/pdf/2412.17799

© 版权声明:
本文地址:https://aidh.net/kuaixun/jjtu4soj

暂无评论

none
暂无评论...