探微芯联发布Scale-Up超节点通信互联方案:填补国产高性能AI芯片间通信空白
2026年3月30日,专注AI底层基础设施的探微芯联宣布其自主研发的Scale-Up超节点通信互联解决方案正式量产商用。该方案包含自研通信协处理器CX-Link 2.0、低延迟RDMA交换矩阵SX-Fabric及配套软件栈TorchNet,专为万卡级大模型训练场景设计,实现单节点内8卡间<80ns延迟、跨节点128卡间<300ns延迟,带宽达1.6TB/s,较国际同类产品功耗降低37%,且完全兼容PyTorch、JAX及国产框架OneFlow。这是我国首个在训推一体场景下通过全栈信创认证的高性能通信基础设施,已获工信部“智能计算根技术攻关”专项支持。
技术突破体现在三大层面:硬件层面,CX-Link 2.0采用硅光集成+3D堆叠封装,将光电转换模块直接嵌入GPU基板,消除传统铜缆信号衰减瓶颈;协议层面,创新提出“语义感知路由”机制,可根据大模型训练中的梯度同步、参数更新等不同通信模式,动态分配网络优先级与带宽资源;软件层面,TorchNet提供细粒度通信算子级优化,使Llama-3-70B模型在千卡集群上的强扩展效率从62%提升至89.4%。目前该方案已应用于上海AI Lab“超智融合算力”平台及某央企千亿参数金融大模型训练集群。
该成果的战略意义远超技术本身。长期以来,高性能AI芯片间的互连技术被英伟达NVLink与AMD Infinity Fabric垄断,构成制约国产大模型训练规模与效率的关键“隐性卡点”。Scale-Up方案的成熟,意味着我国不仅拥有了自主AI芯片,更构建起支撑其高效协同的“神经中枢”。随着2026年国产万卡集群建设加速,该方案将成为打通“芯片—通信—框架—模型”全链条自主化的关键拼图,为万亿参数模型常态化训练与实时推理提供确定性通信保障。