腾讯混元3D世界模型2.0开源:一句话生成可交互3D场景,全面兼容Unity/Unreal引擎
2026年4月14日,腾讯正式发布并开源混元3D世界模型2.0(HY-World 2.0),标志着中国在多模态生成式AI底层基础设施领域迈出关键一步。该模型支持仅凭自然语言指令(如“生成一座带喷泉的江南园林,阳光斜照,白鹭掠过水面”)即可实时构建高保真、物理可交互的3D场景,并原生输出标准USDZ、GLTF及Unity Prefab格式,无缝接入主流游戏与仿真引擎。相较1.0版本,2.0在空间语义理解、动态光照建模与跨尺度几何生成能力上实现代际突破,实测在Blender+USD Pipeline中推理延迟降低62%,网格拓扑合理性提升至98.7%。
技术架构层面,HY-World 2.0采用“文本→隐式神经场(iNeRF)→显式体素→网格”四级解耦生成范式,首次引入时空一致性约束模块(STC-Module),确保生成场景中物体运动轨迹、光影变化与物理碰撞响应符合真实世界规律。尤为关键的是,其训练数据全部基于国产合规三维资产库“灵境3D-1B”,涵盖超200万条经人工校验的建筑、植被、交通与人文场景标注,彻底规避海外3D数据集潜在的版权与地缘风险。
产业影响深远。该模型已同步接入腾讯云TI-ONE平台与WeMake工业设计生态,首批合作方包括三一重工(用于工程机械虚拟调试)、中南建筑设计院(城市数字孪生建模)及米哈游(开放世界NPC行为空间预演)。业内专家指出,HY-World 2.0不仅填补了中文语境下高质量3D内容生成工具链的空白,更将加速‘AI+具身智能’从仿真训练走向物理世界部署——当机器人能在毫秒级重建并理解真实环境的三维拓扑结构时,自主导航、任务规划与人机协同的可靠性将跃升至新量级。