北武院联合虚拟动点发布人形机器人动作大模型,开源‘潜擎动创平台’推动具身智能标准化落地
2026年5月9日,在湖北武汉举办的‘动作大模型发布暨产品技术分享会’上,北京大学武汉人工智能研究院(北武院)与北京虚拟动点科技有限公司联合发布面向人形机器人产业的全新动作大模型。该模型并非传统意义上仅适配单一硬件的动作控制器,而是以‘通用动作生成器’为定位,首次实现从自然语言指令到跨品牌、跨构型机器人本体动作指令的端到端语义映射。其核心由两大模块构成:虚拟动作生成器MotionMaster与物理适配转换器UniAct。前者基于多源高阶语义(如‘平稳托起3kg物体并转身避开障碍’)在仿真环境中生成时空连续的关节轨迹;后者则通过轻量级神经编译器,将虚拟动作自动适配至宇树Unitree Go2、乐聚Kuavo、优必选Walker X等主流人形平台的动力学约束与通信协议,实测动作执行成功率超89.3%,泛化覆盖率达92.7%。
这一突破直击当前人形机器人产业的核心瓶颈——动作开发高度碎片化。行业普遍面临‘一个任务一套代码、一款机型一套SDK’的重复劳动困局,单个复杂动作序列开发周期长达2–4周,严重制约场景迭代与商业化验证。而该动作大模型通过构建统一的动作语义空间与可迁移的物理适配层,将自然语言指令直接转化为机器人可执行的底层控制信号,大幅压缩开发链路。更关键的是,模型支持数据回流机制:真实机器人运行中的失败案例(如打滑、失衡、延迟响应)可自动标注并反馈至训练闭环,驱动模型持续进化。据北武院具身智能中心主任朱毅鑫介绍,该模型已正式开源,并同步推出首个工程化应用产品——‘潜擎动创平台’,提供可视化动作编排界面、仿真-真机协同调试环境及轻量化边缘推理引擎,支持在Jetson AGX Orin等嵌入式设备上实时运行。
此次发布标志着具身智能发展范式正发生结构性转变:从依赖专家经验的手工调参,转向数据驱动的语义编程;从封闭生态的硬件绑定,迈向开放标准的跨平台协同。虚拟动点CEO刘耀东指出,其背后是空间计算与大模型技术的深度耦合——团队将多年积累的毫米级人体运动捕捉数据、物理仿真引擎与大语言模型的指令理解能力融合,使模型不仅‘听懂’指令,更能理解任务背后的物理意图与社会语境。例如,当输入‘请为老人递送水杯’时,模型会自主选择低重心姿态、减速靠近、手掌朝上且微倾3°以降低倾洒风险,体现对安全与人文的双重建模。
产业影响层面,该模型已引发产业链共振。光谷东智、格蓝若、宇树科技、乐聚智能等企业现场签署战略合作,将接入‘潜擎动创平台’作为其下一代人形机器人标准动作中间件。这意味着未来不同厂商的机器人有望共享同一套高级行为库,极大提升系统互操作性与生态兼容性。长远来看,动作大模型的标准化将加速人形机器人从实验室原型走向规模化商用,尤其在养老陪护、特种作业、教育实训等对动作安全性、一致性要求极高的垂直场景中释放价值。业内专家预测,随着更多高质量具身交互数据开源及MCP(Model Context Protocol)在机器人领域的延伸应用,2026年下半年或将出现首批基于该模型的商业化服务机器人整机产品。