北京人形机器人创新中心近日宣布,正式开源其自主研发的具身小脑能力模型XR-1,以及配套的数据训练工具RoboMIND 2.0和高保真数字资产数据集ArtVIP。这一系列成果标志着国内具身智能领域向“全自主、更实用”方向迈出关键一步,为机器人落地工业、商业及家庭场景提供了技术支撑。
XR-1模型作为国内首个通过具身智能国家标准测试的视觉-语言-动作(VLA)大模型,核心突破在于解决了行业长期存在的“感知-执行”割裂问题。通过跨数据源学习、跨模态对齐及跨本体控制技术,其首创的UVMC(多模态视动统一表征)框架实现了视觉信号与动作指令的实时映射。测试数据显示,搭载该模型的机器人能以人类“条件反射”般的本能完成复杂任务,例如在连续穿越5扇自动门的测试中实现全自主操作,无需人工干预。
在工业场景验证中,基于XR-1框架优化的轻量级模型展现出显著优势。某发动机工厂的实测表明,配备该技术的“具身天工2.0”和“天轶2.0”机器人可自主完成料箱取放、搬运等无人产线作业,任务成功率较传统方案提升40%。更值得关注的是,通过引入ArtVIP数据集中的1.2万条触觉操作数据,机器人在精密分拣任务中的误差率降低至0.3%,达到行业领先水平。
为构建完整技术生态,北京人形同步升级了智能机器人数据集RoboMIND。新发布的2.0版本包含30余万条机器人操作轨迹数据,覆盖工业制造、商业服务、家庭生活等11类场景。其中新增的仿真数据模块,通过与ArtVIP的1000余个高保真数字孪生物体(如可旋转座椅、抽屉等)交互训练,使机器人在未接触真实物体前即可掌握操作技巧。实验证明,将仿真数据占比提升至30%后,机器人跨场景任务适应速度提升2倍。
在特种领域应用方面,北京人形已形成多维度突破。与中国电科院合作的高危电力巡检项目中,搭载XR-1的机器人可自主完成绝缘子检测、线路故障排查等任务,作业效率较人工提升5倍;与李宁运动科学实验室联合开展的跑鞋测试,则通过机器人动态运动数据分析,为运动装备研发提供量化依据。近期,该中心还与拜耳达成战略合作,探索具身智能技术在制药生产中的落地路径。
据技术团队介绍,XR-1及相关数据工具已形成完整开源体系,开发者可通过模块化调用实现快速二次开发。目前,已有超过15万次下载记录,衍生出物流分拣、医疗辅助等20余个行业解决方案。随着合作伙伴网络扩展至汽车制造、能源化工等领域,具身智能技术的规模化商用进程正在加速。





















