Anthropic回应Claude Code源码泄露事件:人为失误致MAP文件误打包,安全治理进入深水区
2026年4月1日,Anthropic核心开发者鲍里斯·切尔尼(Boris Cherny)就Claude Code源代码泄露事件发布正式声明,确认事故源于产品部署流程中的严重人为疏失:团队在向npm仓库发布Claude Code v2.1.3包时,误将未经混淆处理的source map(.map)调试文件一并打包。该文件不仅包含完整的函数名、变量名及注释,还暴露了内部API路由结构、密钥轮换逻辑及未公开的‘CodeGuardian’安全沙箱实现细节,涉及超51万行核心代码。GitHub上相关仓库已被DMCA通知强制下架,但据安全公司ReversingLabs监测,泄露内容已在多个暗网论坛二次传播,累计下载量逾1.2万次。
此次事件暴露出生成式AI时代特有的安全悖论:高度依赖开源协作与快速迭代的开发范式,与商业模型知识产权保护需求之间存在根本性张力。Anthropic虽采用‘开源核心+闭源增强’策略,但其调试文件管理规范存在致命断点——未将.map文件纳入CI/CD流水线的静态扫描黑名单,亦未启用npm的publishConfig.ignore配置。更值得警惕的是,这已是Anthropic一周内第二起重大安全事件,此前其内部文档管理系统曾因SAML单点登录配置错误导致员工邮箱列表泄露。
行业影响远超单一公司范畴。Linux基金会随即宣布将1250万美元开源安全拨款中的30%定向用于‘AI工具链安全基线计划’,重点制定LLM相关npm/pypi包的发布审计标准;美国国家标准与技术研究院(NIST)亦启动紧急修订SP 800-218《Secure Software Development Framework》,拟新增‘AI模型交付物供应链完整性’强制条款。对企业用户而言,事件敲响警钟:必须将LLM工具链纳入SBOM(软件物料清单)管理范围,对第三方AI包实施二进制级可信验证。正如MITRE ATT&CK框架最新更新所警示:‘攻击者正系统性地将AI开发工具链作为新的初始访问向量。’