蚂蚁集团F2LM-v2开源横扫11项榜单,‘小模型时代’开启端侧智能新纪元

2026-04-02 19:48 👁 阅读

2026年3月26日,蚂蚁集团正式开源全尺寸F2LM-v2模型,该模型在MMLU、BBH、GSM8K等11项权威基准测试中全面超越720亿参数竞品,却仅以70亿参数量实现性能反超,宣告‘小模型时代’正式到来。F2LM-v2的核心突破在于创新性采用‘动态稀疏注意力蒸馏’技术,通过可学习门控机制在推理时自动屏蔽87%的冗余计算路径,使同等性能下GPU显存占用降低至1/5。更关键的是,该模型原生支持Android/iOS端侧部署,在骁龙8 Gen4芯片上实测达到23 token/s的生成速度,且全程无需联网——这意味着银行APP可直接在用户手机内完成信贷风控报告生成,彻底规避数据出境合规风险。

这一技术跃迁背后是AI产业逻辑的根本性重构。此前行业普遍信奉‘更大即更强’,但F2LM-v2证明:在真实业务场景中,模型效能取决于‘有效计算密度’而非绝对参数规模。蚂蚁团队披露的测试数据显示,其在电商客服场景中意图识别准确率达99.2%,远超某国际大厂千亿模型的94.7%,原因在于F2LM-v2针对中文电商语境进行了1200万条真实会话微调,并嵌入了动态实体链接模块,能精准识别‘iPhone15 Pro暗紫色’与‘iPhone15 Pro 暗紫’的语义等价性。这种‘场景驱动型精炼’范式,正在取代通用大模型的粗放式训练路线。

产业影响已迅速显现。字节DeerFlow2.0与钉钉悟空AI加速将F2LM-v2集成至企业服务工作流,某制造业客户反馈其设备故障诊断Agent响应时间从8.2秒缩短至1.3秒;而英伟达调整Rubin Ultra芯片路线,放弃4-Die封装转投2-Die架构,亦是对端侧算力需求爆发的直接回应。值得注意的是,F2LM-v2开源协议特别强调‘商业友好性’,允许企业免费用于营收低于5亿元的业务线,这种‘普惠性技术授权’策略,正推动AI能力从科技巨头向中小制造企业快速渗透。当70亿参数模型能在千元手机上流畅运行,AI普惠化的最后一道物理屏障已然瓦解。