Anthropic回应Claude Code源码泄露事件:人为失误暴露AI公司工程治理短板
2026年4月1日,Anthropic首席开发者鲍里斯·切尔尼(Boris Cherny)就Claude Code源代码泄露事件发布正式声明,承认事故源于产品部署流程中的严重人为疏失:团队在向npm公共仓库发布Claude Code 2.3.1包时,误将未经混淆处理的source map调试文件一并打包,导致包含51万行核心代码、未公开API路由逻辑及内部工具链调用协议的完整工程资产暴露于互联网。该事件系Anthropic一周内第二起重大安全事故(此前3月28日发生内部Slack频道误设为公开可索引),引发业界对AI原生公司工程成熟度的深度反思。目前Anthropic已向GitHub发送DMCA通知,成功下架全部8100+个含泄露文件的镜像仓库,并启动第三方安全审计。
此次泄露的深层危害远超代码本身。source map文件中嵌入的注释揭示了Claude Code多项未发布功能的设计意图,包括‘跨IDE环境状态同步’‘IDE插件级漏洞自动修复’及‘开发者意图逆向建模’等前沿能力,这些信息可能被恶意竞争者用于针对性技术围堵。更严峻的是,泄露代码中暴露出Anthropic在依赖管理上的脆弱性——其核心编译器模块大量调用未经严格审计的开源库,其中3个存在已知CVE漏洞。网络安全机构Snyk评估指出,若攻击者利用这些漏洞构造供应链投毒,可实现对数百万开发者IDE环境的静默劫持。
事件催化行业治理加速:Linux基金会宣布将AI工具链安全纳入其1250万美元开源安全专项拨款重点,首批资助项目即包括‘AI SDK可信签名验证框架’;美国国家标准与技术研究院(NIST)同步启动《生成式AI软件物料清单(SBOM)实施指南》编制。值得深思的是,Anthropic在声明中强调‘我们正从‘快速迭代’转向‘可验证交付’’,这暗示其内部已建立代码变更影响分析矩阵与自动化合规检查流水线。当AI公司不再仅以模型性能论英雄,其工程治理体系的健壮性,正成为投资者、开发者与监管机构共同审视的新标尺。