智元机器人ACoT-VLA架构入选CVPR 2026并开源 助力攻克操控难题

   发布时间:2026-03-11 11:34 作者:江紫萱

在计算机视觉与机器人技术交叉领域,一项突破性研究成果引发全球关注。智元机器人(AGIBOT)与北京航空航天大学联合研发的ACoT-VLA架构,凭借其创新性思维范式成功入选计算机视觉顶会CVPR 2026。该架构突破传统视觉语言动作模型(VLA)的局限,首次将推理过程从语义空间延伸至动作空间,为机器人复杂操作任务提供了全新解决方案。

传统VLA模型长期面临"语义理解强、动作执行弱"的矛盾,尤其在需要多步骤协同的操控场景中表现欠佳。研究团队提出的动作链思维(Action Chain-of-Thought)范式,通过构建动作序列的显性推理机制,使机器人能够像人类一样分解任务步骤、评估动作效果并动态调整策略。实验数据显示,该架构在工具使用、物体操作等复杂任务中的成功率较传统模型提升42%,推理效率提高3倍。

作为AGIBOT WORLD CHALLENGE机器人挑战赛的官方基线模型,ACoT-VLA已实现完整开源。开发者可基于该架构快速构建机器人操控系统,其模块化设计支持从仿真环境到真实场景的无缝迁移。目前,全球已有超过300个研究团队下载使用该模型,在工业装配、医疗辅助等领域开展应用探索。

这项成果标志着机器人智能体从"被动执行"向"主动规划"的关键跨越。研究团队透露,下一代架构将整合触觉感知与物理推理能力,进一步缩小虚拟仿真与真实世界的性能差距。随着开源社区的持续完善,ACoT-VLA有望成为机器人复杂操作任务的基础性技术平台。

 
 
更多>同类内容
全站最新
热门内容