佰感交融 机智过人
高保真数据驱动!Manus数据手套助力北大RoboBrain-Dex灵巧操作突破
RoboBrain-Dex 实现灵巧操作突破:Manus 数据手套赋能高保真具身数据采集
近日,北京大学与北京人工智能研究院(BAAI)联合研发的视觉 - 语言 - 动作(VLA)模型 RoboBrain-Dex,在多项真实世界灵巧操作任务中达成优异表现,并展现出强劲的跨载体泛化能力。这一科研进展的核心支撑,来自Manus 数据手套构建的高保真数据采集方案,相关成果已通过专属案例页面详细披露。

论文核心创新与技术路径
1、EgoAtlas 多源数据集构建:研究团队打造了大规模第一视角数据集 EgoAtlas,首次将人类与机器人操作数据统一在一致的动作空间下。而数据采集的关键设备 ——Manus Quantum Metagloves,能以毫米级精度捕捉 25 个手部关键点,为两类数据的 “动作空间对齐” 提供了基础,解决了传统数据集视角割裂、数据质量不均的问题。
2、双功能数据采集系统:Manus手套与追踪系统实现双重核心价值:一方面精准记录人类自然操作演示,为模型提供真实行为先验;另一方面通过基于 IK 的重定向技术,直接实现对 Unitree Robotics G1 人形机器人的精准遥操作,高效补充机器人端演示数据,大幅降低数据采集成本。
3、强泛化 VLA 模型验证:RoboBrain-Dex 依托 EgoAtlas 数据集完成训练,在分布外场景(未训练的物体、环境)中仍保持稳定性能,印证了高保真具身数据对模型通用能力的关键作用 —— 而这一数据质量的保障,离不开Manus 动捕手套的高精度手部运动捕捉能力。
硬件与科研的天然契合
作为具身智能研究的核心硬件,Manus高精度动捕数据手套(Quantum Metagloves/MetaGloves Pro/MetaGloves Pro Haptic)的技术特性与科研需求高度匹配:

毫米级定位精度、25关键点同步捕捉、无漂移、低延迟、轻量化佩戴设计,使其能高效采集自然状态下的手部操作数据,既避免了传统采集设备的视角依赖与遮挡问题,又实现了 “人类演示 - 机器人遥操作” 的无缝衔接,成为 EgoAtlas 数据集成功构建的核心支撑。
素材来源:https://arxiv.org/abs/2511.17366
