Meta Llama 4系列发布:MoE架构引爆开源AI效能革命
2025年4月,Meta在未提前预告的情况下正式发布Llama 4全系列模型,包括Scout、Maverick与Behemoth三款差异化产品,成为继Llama 3后开源AI领域最具里程碑意义的事件。该系列首次全面采用混合专家(Mixture of Experts, MoE)架构,彻底重构大模型效能评估标准——单token仅激活170亿参数中的部分专家,使训练FLOPs利用率提升2.8倍,推理延迟降低41%,在同等硬件条件下实现质量与成本的双重突破。其中Llama 4 Scout以1000万token上下文窗口刷新行业纪录,可一次性处理整部《红楼梦》原文+全部脂砚斋批注+现代研究论文集,为法律文书比对、古籍数字化校勘等超长文档任务提供原生支持。
Llama 4 Maverick则聚焦性价比革命,在128位专家调度下达成与DeepSeek-V3相当的编程与推理能力,而激活参数不足后者一半。在LiveCodeBench与AIME 2025数学竞赛模拟测试中,其Python代码生成准确率高达89.7%,数学证明链完整性达92.3%,显著优于GPT-4o与Gemini 2.0 Flash。更关键的是,Meta同步开源完整训练代码、专家路由算法与量化部署工具链,允许开发者根据GPU显存动态配置激活专家数,使消费级显卡亦可运行高性能MoE模型。
此次发布标志着开源AI正式迈入‘架构驱动’新阶段。传统密集模型依赖参数膨胀换取能力提升的路径已近极限,而MoE通过稀疏化计算实现‘按需激活’,既缓解算力焦虑,又为个性化定制开辟空间。社区已出现基于Llama 4 Scout的‘宪法AI’项目,将法律条文作为固定专家嵌入模型,确保生成内容严格符合《民法典》条款;教育领域则利用其长上下文优势构建‘跨学科知识图谱引擎’,自动关联物理公式、历史背景与哲学思辨。Llama 4不仅是技术升级,更是开源精神对商业闭源模式的一次体系化回应。