

近年来,具身智能备受瞩目,从春晚机器人的惊艳表演,到被引入政府工作报告,再到英伟达公司的黄仁勋多次力挺,该领域已成为人工智能界的热点。具身智能的目标是使机器人能够像人类一样,在真实世界中准确感知并灵活应对。
清华大学与蚂蚁数科的研究团队取得了重大突破,在ICLR2025会议上发表了关于BodyGen算法框架的论文。这一框架结合了强化学习和深度神经网络技术,能够使机器人在短时间内自主演化出适应环境的最佳形态和控制策略,性能实测提升了60%,并且代码已经在GitHub上开源。
传统机器人设计面临诸多难题,例如对专业知识的依赖、针对特定环境的反复试验和迭代,以及形态控制协同设计技术中形态搜索空间巨大、形态与控制策略深度耦合等问题。而BodyGen框架通过形态设计和环境交互两个阶段的方法,有效地解决了这些难题。在形态设计阶段,利用Transformer(类似于GPT风格的模型)自回归构建和优化机器人形体结构参数;在环境交互阶段,利用Transformer(类似于Bert风格的模型)处理关节信息,实现与环境的交互反馈。
BodyGen具备三项核心技术。首先是形体结构位置编码器TopoPE,类似于机器人的“身体感知”系统,可帮助人工智能迅速适应形态变化;其次是基于Transformer的MoSAT,类似于“大脑中枢”,负责信息处理和指令发送;最后是特殊的奖励分配机制,让人工智能能够合理评估设计决策。
在多种任务环境中进行爬行、游泳等10项不同任务测试中,BodyGen生成的机器人形态适应性评分比当前最佳方法高出60.03%。此外,它的参数量仅为1.43M,更加轻量级,在资源受限环境中具有明显的优势。未来,研究团队将继续推动BodyGen在实际场景中的应用,该技术有望成为通用具身智能发展的关键推动力。详情请访问:https://github.com/GenesisOrigin/BodyGen。