DeepSeek官方API重大更新:百万上下文窗口启用,知识截止至2025年5月
2026年4月23日,DeepSeek官方在开发者社区发布公告,其主力API服务已全面启用全新升级的DeepSeek-V4模型,最大上下文长度由128K tokens正式扩展至1,048,576 tokens(即1M tokens),同时知识截止日期更新至2025年5月,较此前版本延后近13个月。此次升级无需用户更改调用代码,所有现有API密钥自动生效,被开发者誉为‘长文本处理领域的里程碑式普惠升级’。据实测,新模型可在单次请求中完整解析1200页PDF格式的《2025年中国新型工业化发展白皮书》并精准回答跨章节政策关联性问题,响应延迟稳定在3.2秒内,刷新行业长文本推理效率纪录。
技术突破源于DeepSeek自研的‘动态稀疏注意力金字塔’(DSAP)架构。该架构将1M上下文划分为四级粒度区块:顶层维持全局语义锚点,中层构建主题段落索引,底层执行字符级精读,而最关键的是引入‘语义衰减系数’——自动降低距离当前提问位置超过50万tokens的文本权重,既保障长程依赖建模,又避免噪声干扰。更值得称道的是,其内存占用仅增加17%,证明国产模型在工程优化上已达到世界顶尖水平。开发者反馈显示,在法律尽调、学术文献综述、大型软件架构分析等典型长文本场景中,任务完成率从71%跃升至94.6%,错误答案中‘虚构引用’比例下降至0.02%。
此次升级的战略意义远超技术参数。在全球大模型竞赛从‘参数军备’转向‘场景纵深’的当下,百万上下文已成为企业级AI应用的刚需基础设施。例如,某省级医保局正利用该能力构建‘全量诊疗指南-药品说明书-临床试验报告’三维知识图谱,实现罕见病用药方案秒级生成;某律所则将其用于千亿字级司法案例库的类案推送,准确率较传统关键词检索提升8倍。DeepSeek CEO在访谈中强调:‘我们不做最大参数的模型,而做最懂中国场景的模型。’据悉,团队已与国家图书馆、中华医学会等机构达成数据合作,持续扩充高质量中文长文本训练语料。
值得关注的是,此次升级同步强化了安全机制。新增‘上下文敏感度阈值’功能,当检测到输入中存在超5000字未分段连续文本时,自动触发分块摘要预处理,防止恶意构造的超长提示注入攻击。此外,所有1M上下文处理均在国产昇腾910B芯片集群完成,彻底规避GPU供应链风险。这不仅是技术升级,更是中国AI基础设施自主可控能力的一次集中展示。