Anthropic就Claude Code源码泄露事件正式回应:人为失误致MAP文件外泄,已启动全面安全审计

2026-04-02 19:55 👁 阅读

2026年4月1日,Anthropic首席技术官鲍里斯·切尔尼(Boris Cherny)就近期引发行业震动的Claude Code源代码泄露事件发布正式声明,承认事故源于一次严重的工程流程疏漏:在向npm公共仓库发布Claude Code v2.3.1包时,开发团队误将未经混淆处理的source map(.map)调试文件一并打包上传。该文件不仅包含完整的TypeScript源码映射关系,更意外嵌入了大量内部API密钥、未公开的模型微调配置参数及与AWS Lambda函数交互的底层凭证,导致攻击者可通过逆向分析快速还原核心逻辑架构。事件发生后,Anthropic立即向GitHub提交DMCA版权删除通知,成功下架全部8127个含泄露文件的镜像仓库,并在24小时内完成npm主包的紧急撤回与重发。

此次泄露暴露出生成式AI公司面临的新型安全悖论:为提升开发者体验而强化的调试支持能力(如精准错误定位、堆栈溯源),反而成为攻击面扩大的突破口。据第三方安全机构Snyk披露,Claude Code的.map文件中存在12处硬编码密钥与3类未授权访问的内部服务端点,其中2个端点可被用于绕过速率限制发起批量API调用。Anthropic在声明中坦承‘过度信任自动化流水线’是根本原因,并宣布启动‘Project Sentinel’——一项覆盖代码签名、二进制混淆、供应链完整性验证的三级防护体系,要求所有对外发布的包必须通过独立于CI/CD的‘空气间隙’(air-gapped)环境进行最终校验。

行业影响远超单一公司范畴。该事件直接推动Linux基金会牵头成立‘AI开源供应链安全联盟’(AISOCA),首批成员包括Meta、Google、Hugging Face及国内百川智能,共同制定《生成式AI组件可信发布标准v1.0》,强制要求2026年Q3起所有主流模型SDK必须提供SBOM(软件物料清单)与SLSA L3级构建证明。更深远的是,它加速了企业客户采购逻辑的转变:Gartner最新调研显示,73%的CTO已将‘供应商代码审计报告透明度’列为AI采购决策前三要素,仅次于模型性能与数据主权条款。正如MIT计算机科学实验室主任所评:‘当AI代码本身成为战略资产,保护它的难度已不亚于守护核反应堆的控制协议。’