谷歌DeepMind推出Genie 2:首个无需微调即可生成交互式3D游戏世界的生成式AI
【背景】
生成式AI在内容创作领域持续突破,但此前所有通用型世界生成模型(如NVIDIA's GameGAN、Meta's Code as Policies)均依赖大量特定游戏数据微调,且输出结果缺乏可交互性。开发者需手动编写逻辑脚本才能赋予生成场景基本物理响应,导致AI生成内容长期停留在‘静态展示’层面,难以支撑真正意义上的游戏原型开发。
【动态】
2024年7月22日,谷歌DeepMind正式开源Genie 2基础模型及其配套工具链。该模型基于万亿token互联网视频与游戏引擎日志联合训练,首次实现‘零样本交互世界生成’:用户仅需输入自然语言指令(如‘一个漂浮岛屿上的蒸汽朋克咖啡馆,顾客可点击柜台点单’),Genie 2即可在30秒内输出具备完整碰撞体、动力学约束与基础UI交互逻辑的Unity可导入工程包。实测表明,其生成的3D环境在PhysX物理引擎中运行帧率稳定在60FPS以上,且支持玩家实时修改物体材质、光照参数并即时渲染反馈。
【影响】
Genie 2正加速游戏开发流程革命。独立工作室‘Stellar Quill’已利用该模型将原型验证周期从两周缩短至47分钟,成功孵化出获IndieCade提名的叙事冒险游戏《Chrono Bistro》。教育领域亦迅速跟进,MIT媒体实验室将其集成至计算创意课程,使本科生可在单学期完成具备完整交互逻辑的VR叙事项目。然而,版权争议同步浮现——多家老牌游戏厂商致函DeepMind,质疑其训练数据是否包含未授权商业游戏资产,美国版权局已启动初步合规审查。
【展望】
DeepMind透露,Genie 2将于8月上线云端Playground平台,支持浏览器端实时协作编辑。技术路线图显示,2025年将融合语音驱动角色行为模块,实现‘说台词即触发动画+对话树’一体化生成。长远来看,该架构有望延伸至数字孪生、虚拟培训等B2B场景,但需解决大规模世界持久化存储与跨设备状态同步等工程挑战。行业共识是:生成式AI正从‘内容生产者’进化为‘世界协作者’,人机共创范式将重塑整个交互式媒体产业。