2026年3月25日,月之暗面联合创始人兼CTO杨植麟在‘智识前沿大会’上正式发布Kimi K2.5大模型及全球首个大规模落地的Agent集群系统。此次发布不仅是技术迭代,更是一场针对深度学习‘教科书级标准’的系统性挑战。杨植麟开宗明义提出大模型第一性原理:‘做大模型本质上是把更多能源转化成智能’,并强调规模化(Scaling)的本质是转化效率竞赛,而非单纯堆砌算力。基于此,团队从Token效率、长上下文架构与智能体协作三大维度重构技术路径,直指Adam优化器、残差连接(ResNet)与注意力机制(Attention)这三项沿用超十年的‘行业默认标准’。

最具突破性的是其原创的‘注意力残差’(AttnRes)连接技术——将传统作用于时间维度的注意力机制‘旋转90度’,使其沿网络深度方向建模层间依赖,使每一层均可融合此前所有层的语义输出。实验表明,该设计仅增加2%参数与计算开销,却显著提升逻辑推理准确率18.7%,预训练收敛速度加快32%。配合自研的Kimi Linear长上下文架构,K2.5在百万级token上下文中仍保持线性计算复杂度与极低信息衰减,为复杂任务编排奠定坚实基础。

真正引发行业震动的是其Agent集群(Agent Swarm)实践:基于K2.5构建的编排器可动态调度数百个专业化Agent协同作业,完成从零构建代码仓库、跨平台数据迁移、多源合同比对等高阶任务。与单体模型不同,集群任务耗时不再随复杂度指数增长,而是呈现近似线性扩展趋势,验证了‘组织化智能’的可行性。杨植麟比喻道:‘建造一家千亿美元公司靠一个人需百年,但数百聪明个体高效协作可在数月内达成’。这标志着AI正从‘单兵智能’迈入‘数字组织智能’新纪元,也为国产大模型突破应用瓶颈提供了可复用的技术范式与工程路径。