腾讯Hy-MT1.5开源:440MB离线翻译模型重塑端侧AI新范式
2026年5月,腾讯混元团队正式开源Hy-MT1.5-1.8B-1.25bit紧凑型翻译模型,以仅440MB的模型体积实现全离线、多语言、高精度翻译能力,性能全面超越谷歌在线翻译服务。该模型基于混合专家(MoE)稀疏激活与1.25比特超低精度量化技术,在骁龙8 Gen4和苹果A18芯片上实测推理延迟低于320ms,支持中、英、日、韩、法、西等28种语言双向互译,无需联网、不上传文本,彻底解决隐私泄露与网络依赖痛点。
背景上,当前主流云端翻译模型普遍面临带宽敏感、响应延迟、数据合规三重瓶颈,尤其在跨境政务、金融审计、医疗问诊等强隐私场景中落地受限。Hy-MT1.5通过自研的Hybrid Token Compression(HTC)编码器与动态上下文裁剪机制,在保持BLEU-4评分达38.7(较NLLB-3.3B高2.1分)的同时,将参数量压缩至原模型的1/12,内存占用降低89%。
产业影响深远:一方面推动终端AI从‘功能附加’走向‘能力内生’,为手机厂商预装系统级翻译模块提供开箱即用方案;另一方面倒逼行业重构AI交付标准——模型不再以‘大’为荣,而以‘密’(智能密度)、‘稳’(端侧鲁棒性)、‘隐’(数据不出设备)为新标尺。华为鸿蒙NEXT已宣布集成该模型作为系统级LanguageKit核心组件。
展望未来,腾讯同步启动Hy-MT2.0联合研发计划,目标在2026Q3前实现支持100+小语种、语音-文本跨模态对齐、以及面向方言口音的自适应微调SDK。业内预计,2027年前将有超70%旗舰安卓机型标配此类离线翻译引擎,端云协同翻译架构将成为全球AI终端基础设施新标配。