Warning: Undefined array key "_post_type" in /www/wwwroot/www.aidh.net/wp-content/themes/news/inc/widgets/w.single.posts.php on line 201
Warning: Undefined variable $_post_type in /www/wwwroot/www.aidh.net/wp-content/themes/news/inc/functions/io-post.php on line 231
Psi R0.5路径演进图DexGraspVLA仅需两小时灵巧手抓取数据轻松实现物品、灯光、场景泛化并实现真正的CoTDexGraspVLA是首个用于灵巧手通用抓取的VLA(Vision-Language-Action)框架。通过极少量的训练,该框架能够在多变的环境中智慧涌现灵巧操作能力,快速且精确地拾取各类物品,仿佛如同人类一般。DexGraspVLA框架是一个融合了视觉、语言和动作的层次化结构:
DexGraspVLA框架图 实验结果表明,灵初智能团队仅利用约2小时的灵巧手抓取数据(2094条轨迹 × 3.5秒/条 ÷ 60秒/分钟 ÷ 60分钟/小时 ≈ 2小时),成功泛化至上千种不同物体、位置、堆叠、灯光及背景下的抓取,其数据量仅为Figure的0.4%,数据利用效率提升达250倍!此外,DexGraspVLA相较于现有方案还具备以下几个优势:

左侧图示展示了传统 VLA 模型在抓取任务中的三种典型不安全行为:1)对无关物体造成严重损害,2)由于目标识别错误导致危险物体的误操作,以及 3)在执行指令时与危险物体发生交互。右侧图示通过导航路径例子,进一步展示了传统 VLA 在导航过程中的三种不安全行为。本周,北京大学 PAIR – Lab 团队与灵初智能携手推出了具身安全模型 SafeVLA,致力于通过安全对齐,使机器人在复杂场景中高效且安全地执行任务,展现出在应对对抗性干扰情境中的极高鲁棒性。SafeVLA 在设计中强调“以人为本”,不同于传统机器人仅关注任务完成,它将人类安全置于首位。技术方面,引入了约束马尔可夫决策过程(CMDP)范式,将现实安全约束融合进仿真环境的广泛采样中。SafeVLA 在安全性和任务执行效果方面均取得了突破性进展,分别提升了 83.58% 和 3.85%,充分证明了其在安全与效率之间的卓越平衡能力。
传统 VLA 模型在完成任务过程中的高危行为团队还开发了全新仿真环境 Safety – CHORES,集成安全约束功能,支持用户自定义规则,且该代码完全开源,为全球研究者和开发者提供了很大便利。此外,SafeVLA 在 12 个分布外(OOD)实验中,面对光照、材质变化和复杂环境扰动,始终保持稳定的表现,明显优于其他模型。
SafeVLA 在正常测试集和 OOD 测试集上的表现比较,显示其在 OOD 环境下依然保持良好的安全性和性能