腾讯正式开源混元3D世界模型2.0:一句话生成可交互3D场景,兼容Unity/Unreal引擎
2026年4月14日,腾讯正式发布并开源混元3D世界模型2.0(HY-World 2.0),标志着中国在多模态基础模型与物理世界建模领域取得关键性突破。该模型支持以自然语言指令(如\"生成一座带喷泉的江南园林,阳光斜射,鸽子飞过屋檐\")一键生成高保真、带物理属性与语义结构的3D场景,并原生兼容Unity、Unreal Engine等主流游戏与仿真引擎,开发者可直接导入进行实时渲染、碰撞检测与Agent交互训练。相较于前代,HY-World 2.0在几何一致性、材质反射建模和动态光照推理方面提升显著,实测在BlenderBench v3.1基准上达到92.7分,超越此前SOTA模型Luma AI的89.4分。
模型架构采用“文本→隐式神经场(iNeRF)→显式网格+材质图集”三级解耦生成范式,首次在开源框架中实现语义驱动的拓扑可控重建——用户可通过追加指令(如\"将主厅地板替换为青砖,增加两扇雕花木窗\")对已生成场景进行细粒度编辑,无需重新渲染全场景。技术团队透露,其底层NeRF优化器融合了腾讯自研的Adaptive Ray Sampling算法,在保持1024×1024分辨率输出的同时,单帧推理耗时压缩至1.8秒(A100×4),较同类方案提速40%。
此次开源不仅包含模型权重与推理代码,还同步发布HydraSim仿真套件,集成12类真实世界物理参数(含风阻系数、摩擦衰减率、流体粘滞度等),为具身智能体提供高保真训练沙盒。业内专家指出,该模型正从“静态3D内容生成”迈向“可执行世界建模”,将成为机器人导航、自动驾驶仿真、工业数字孪生等场景的核心基础设施。值得注意的是,HY-World 2.0已接入腾讯云TI-ONE平台,企业用户可通过低代码界面调用API,最快30分钟完成定制化虚拟工厂搭建。