Figure推出Helix通用控制模型,助力机器人协作与泛化能力提升

AI快讯3个月前发布 niko
26 0
AiPPT - 一键生成ppt

Figure与OpenAI分道扬镳后的首个成果——Helix通用控制模型正式亮相。这一模型堪称机器人领域的重大突破,它让机器人具备了类人的感知、理解与行动能力。

在官方演示中,机器人仅需自然语言提示,就能拿起任何物品,哪怕是从未见过的,比如活泼的小仙人掌。而且,两个机器人还能共用同一组神经网络实现协作。

Helix作为一个端到端通用控制模型,完成了一系列首创之举。它是首个能对整个上身进行高速率连续控制的VLA,也是第一个同时在两个机器人上运行的VLA,实现了多机器人协作。它只需自然语言提示就能拿起几乎任何小型家居物品,还使用一组神经网络权重学习所有行为,并且可立即商业化部署。

Helix由两个系统组成,系统2基于开源VLM处理图像和状态信息,用于场景和语言理解;系统1则是用于处理底层控制的Transformer,将语义表征转化为精确动作。两个系统经过端到端训练且可通信。

训练过程完全端到端,从原始像素和文本命令映射到连续动作。Helix无需针对特定任务调整,保持单个训练阶段和权重集。

Figure花费一年多时间打造Helix,旨在解决通用机器人问题。就在两周前取消与OpenAI合作时,就预告会展示‘没人在人形机器人上见过的东西’,如今谜底揭晓,正是Helix。

Helix代表着一种新型的ScalingLaw,它能即时生成长视界、协作、灵巧的操作,无需特定任务演示或大量手动编程,在扩展人形机器人行为方面迈出变革性一步。

© 版权声明
Trea - 国内首个原生AI IDE