MiniMax 2.7即将开源:国产闭源大模型迎来关键转折点
2026年4月7日,MiniMax官方在Hugging Face社区发布公告,确认其旗舰模型MiniMax 2.7将于本周末正式开源,结束长达14个月的闭源运营期。此举被业界视为国产大模型发展的重要分水岭——继2025年Qwen2、GLM-4等基座模型开源后,首个在商业调用量榜单长期稳居前三(据OpenDataLab 2026年3月统计,日均Token消耗量达2.1万亿)的高成熟度闭源模型主动走向开放。公告坦承此前‘低估了开源所需基础设施适配工作量’,包括模型权重脱敏、推理引擎兼容性验证、文档体系重构等,现已全部完成。此次开源将涵盖完整模型权重、训练代码、量化工具链及12个行业微调示例,许可证采用Apache 2.0,允许商用与二次开发。
MiniMax 2.7的核心竞争力在于其极致的性价比平衡。在主流评测中,其在中文理解(C-Eval)、代码生成(HumanEval)与多轮对话(MT-Bench)三项关键指标上均超越同参数量级竞品,而单Token推理成本仅为GPT-4 Turbo的37%。技术根源在于其独创的‘动态专家门控’机制:模型总参数132B,但每推理请求仅激活约28B专家子网,配合硬件感知的稀疏计算调度器,使A100集群利用率稳定在89%以上。更值得重视的是其对长上下文的鲁棒支持——在256K上下文窗口下,事实一致性保持率仍达92.4%,远超行业平均的76.1%。
开源将引发连锁反应。首先,将极大缓解中小企业AI应用的‘Token焦虑’:当前国内AIGC服务中,超68%成本源于模型调用费用,MiniMax 2.7开源后,企业可私有化部署并按需扩容,预计三年TCO降低52%。其次,将加速国产AI芯片适配生态建设:寒武纪、壁仞科技已确认将在Q3推出针对MiniMax 2.7优化的驱动固件。最后,将重塑开源社区技术演进路径——其高质量合成数据集(含1.2TB多模态训练语料)与强化学习奖励模型,有望成为下一代开源基座模型的重要基石。
业内普遍认为,此举标志着国产大模型从‘技术追赶’迈向‘生态共建’新阶段。正如一位头部云厂商CTO所言:‘当最赚钱的闭源模型选择开源,说明真正的竞争已不在模型本身,而在如何让模型更好赋能千行百业。’MiniMax此次开源,或将撬动千亿级AI应用市场加速释放。