Anthropic发布Claude Mythos Preview:AI新模型引发网络安全攻防范式变革

2026-05-04 18:38 👁 阅读

随着人工智能技术加速向关键基础设施渗透,AI与网络安全的交叉正进入战略博弈新阶段。4月23日,全球领先AI安全公司Anthropic正式发布实验性大模型Claude Mythos Preview,该模型在代码审计、零日漏洞推理与攻击路径模拟等任务上展现出远超前代的泛化能力——据其内部基准测试,Mythos对CVE未公开漏洞的预测准确率达78.3%,较Claude 3.5提升近40个百分点。这一突破并非单纯性能跃升,而是源于其全新设计的‘对抗性思维链’(Adversarial Chain-of-Thought)架构,使模型能自主构建多跳攻击假设并反向验证防御盲区。

动态层面,该模型已引发监管层高度关注。美国国家标准与技术研究院(NIST)于4月25日紧急召开闭门听证会,评估其潜在滥用风险;我国工信部等十部门联合印发的《人工智能科技伦理审查与服务办法(试行)》亦特别增设‘高危AI工具分级备案’条款,明确将具备自动化渗透测试能力的系统纳入III类伦理审查范畴。值得注意的是,Anthropic同步开放了Mythos的‘白帽模式’API接口,允许经认证的安全团队调用其漏洞发现能力,但严格禁止生成exploit代码或自动化攻击脚本。

影响维度上,传统网络安全产业格局面临重构。Gartner最新报告指出,2026年全球AI驱动的渗透测试服务市场规模将达23亿美元,同比增长117%,而传统人工渗透测试订单量已连续两个季度下滑。更深远的影响在于责任边界模糊化——当AI系统自主发现并利用企业未披露漏洞时,法律上应归责于开发者、部署方还是模型本身?欧盟《AI法案》执行委员会已在起草补充指南,拟将此类‘双刃剑型AI’列为高风险系统,强制要求部署前完成红蓝对抗压力测试。

展望未来,技术演进与治理协同将成为主旋律。中科院自动化所牵头的‘可信AI安全沙盒’项目已于4月28日启动首批测试,通过构建虚拟网络靶场实现Mythos类模型的能力封印与行为审计。行业共识正在形成:真正的AI安全不是阻止模型进化,而是建立‘能力-责任-监督’三位一体的闭环体系。正如Anthropic首席科学家在年会演讲中所言:‘我们交付的不是武器,而是显微镜——它让看不见的威胁变得可见,而人类必须学会如何正确使用这面镜子。’