谷歌发布Veo3.1Lite:视频生成成本骤降至0.05美元/秒,填补Sora退场后市场空白
2026年3月31日,谷歌正式发布轻量级视频生成模型Veo3.1Lite,标志着生成式视频技术进入规模化商用临界点。该模型在保持Veo系列高保真运动建模与跨镜头一致性能力基础上,通过动态稀疏帧采样、混合量化推理引擎及端到端蒸馏架构,将单秒高清(1080p@24fps)视频生成成本压缩至0.05美元,较前代Veo3.0降低67%,仅为行业平均价格的1/5。值得注意的是,此次发布恰逢OpenAI于3月28日官宣关停Sora项目并整合算力资源转向GPT-5生产力套件——Veo3.1Lite因此被业界视为首个实质性承接中长尾创作者与中小企业视频AI需求的‘战略级替补’。谷歌官方强调,该模型已接入Vertex AI平台并开放API公测,支持文本→视频、图像→视频、视频风格迁移三类核心工作流。
技术层面,Veo3.1Lite采用‘双阶段时空解耦’设计:第一阶段利用轻量Transformer-LSTM混合编码器提取语义时序骨架;第二阶段调用可微分神经渲染模块完成像素级重建,显著减少冗余Token计算。实测数据显示,在标准A100集群上,其单卡吞吐达8.2秒/视频(5秒片段),推理延迟稳定控制在1.8秒内,满足实时编辑场景要求。更关键的是,模型支持中文提示词原生理解,对‘岭南骑楼雨巷’‘敦煌飞天飘带动态’等具文化特异性描述的还原准确率提升至91.3%(LMArena-Vid基准)。
市场影响深远。据太平洋科技AI频道统计,自Sora关停消息公布以来,全球AIGC视频工具日均API调用量激增210%,其中中小MCN机构与县域文旅单位占比超64%。Veo3.1Lite的低价策略直击该群体预算敏感痛点,预计将加速视频内容生产从‘专业作坊’向‘全民创作’跃迁。但行业专家亦提醒,低成本不等于低门槛——模型对提示工程精度要求更高,需配合结构化指令模板与语义校验插件方可释放全部效能。长远看,视频生成正从‘炫技展示’迈入‘成本可控、质量可信、版权可溯’的工业化新阶段。