AI新模型Claude Mythos Preview引爆网络安全攻防革命:漏洞识别能力或颠覆现有防御体系
随着大模型能力持续跃迁,人工智能正从辅助工具加速演变为关键基础设施的‘双刃剑’。4月23日,Anthropic公司正式发布实验性AI模型Claude Mythos Preview,宣称其在零样本(zero-shot)条件下对未知软件漏洞的识别准确率较前代提升310%,可自主解析二进制代码、逆向工程固件逻辑,并生成高置信度POC(概念验证)脚本。该模型并非面向公众开放,仅限经审核的红队组织与国家级网络安全实验室试用,但其技术路径已在第十九届中国科学仪器发展年会(4月23—24日,无锡)引发广泛讨论,标志着AI与安全攻防的融合已跨过技术验证期,进入实战临界点。
当前全球约78%的企业仍依赖基于签名和规则的传统WAF与EDR系统,面对Mythos类模型驱动的自适应模糊测试与上下文感知攻击链,平均检测延迟达4.7小时,误报率超63%。更严峻的是,已有地下论坛出现针对该模型推理API接口的逆向探测行为,暗示黑产正试图构建‘AI漏洞军火库’。央视网数智频道援引多位白帽专家指出,Mythos并非孤立现象——其背后是‘AI for Security’范式向‘Security for AI’范式的结构性迁移,即安全防护对象正从信息系统本身,扩展至AI模型自身的训练数据、提示工程与推理过程。
此次技术突破将直接冲击全球网络安全产业格局。据工信部赛迪研究院预测,2026年AI原生安全产品市场规模将达527亿元,同比增长196%,但传统SOC厂商若未在Q3前完成LLM+SOAR架构升级,或将面临客户流失率超35%的风险。与此同时,4月27日,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,首次将‘具备自主渗透能力的AI系统’纳入高风险科技活动清单,要求开展红蓝对抗必须同步提交伦理影响评估报告,并建立漏洞披露‘双轨制’——既向国家漏洞库报送,也须向被测主体提供可验证修复路径。
展望未来,行业共识正从‘能否用AI攻破系统’转向‘如何让AI成为可信免疫体’。中科院信息工程研究所已启动‘磐石计划’,旨在构建具备自我验证、因果可溯、策略可解释的防御型大模型;而欧盟AI法案最新修订草案亦拟增设‘进攻性AI模型出口管制条款’。可以预见,2026年下半年将成为全球AI安全治理的关键窗口期——技术爆发力与制度约束力的博弈,将决定下一代数字主权的底层规则。