阿里全新AI视频大模型HappyHorse正式发布,接入百炼平台开启全民创作新纪元

2026-04-18 12:01 👁 阅读

2026年4月11日,阿里巴巴集团正式对外披露其全新自研AI视频大模型HappyHorse,标志着中国在多模态世界模型赛道实现关键性突破。该模型已全面接入阿里云百炼平台,并于当日启动灰度测试,预计一周内向公众开放API与可视化创作界面。HappyHorse并非传统意义上的端到端视频生成模型,而是首个深度融合物理仿真、时空因果推理与跨模态动作规划的‘可执行世界模型’(Executable World Model),支持从文本、语音甚至草图输入出发,自动生成具备物理一致性的高保真动态视频,时长可达60秒,帧率稳定在30fps,且支持逐帧编辑与逻辑校验。

技术架构上,HappyHorse采用三层协同范式:底层为轻量化神经渲染引擎‘LumenCore’,中层嵌入基于强化学习训练的‘MotionGraph’运动图谱,顶层则集成阿里自研的‘Causal-LLM’因果语言理解模块,使其不仅能‘看见’动作,更能‘理解’意图——例如输入‘让机器人用筷子夹起豆腐而不碎’,模型可自动推演力学约束、材料形变参数与关节扭矩序列,并生成符合真实物理规律的执行视频。这一能力已在小鹏汽车智驾仿真、浙江卫视虚拟制片及国家文物局数字孪生修复项目中完成首轮验证。

行业影响层面,HappyHorse的发布直接推动视频生产范式从‘剪辑导向’转向‘意图导向’。据阿里云透露,首批接入的500家AIGC内容工厂平均视频制作周期缩短73%,人力成本下降41%;更深远的是,其与通义万相3.0、Qwen3.6-Plus形成‘文-图-视-控’全栈闭环,为具身智能体提供统一感知-决策-执行底座。值得注意的是,HappyHorse已通过国家网信办《生成式人工智能服务安全评估办法》三级合规认证,并内置‘内容水印链’与‘语义可信度评分’双轨机制,确保生成内容可溯源、可验证、可干预。