国家五部门联合发布《人工智能拟人化互动服务管理暂行办法》,7月15日起施行,明确情感诱导、身份冒用等红线

2026-04-15 20:42 👁 阅读

2026年4月11日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合发布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),并明确自2026年7月15日起正式施行。这是全球首个系统性规制AI拟人化服务的国家级行政规章,聚焦语音、形象、行为、情感等多模态拟人能力带来的新型社会风险,首次以法律形式界定‘拟人化互动服务’范畴——即通过生成式AI技术模拟人类外观、语言、情绪反应或社会角色,向用户提供具有人格化特征的交互体验的服务形态。《办法》共六章三十八条,覆盖研发、部署、运营全生命周期,尤其强调对‘情感诱导’‘身份冒用’‘关系依赖构建’三类高风险行为的禁止性规范,为快速发展的陪伴型AI、数字人客服、虚拟偶像、AI心理咨询等业态划出清晰合规边界。

《办法》的核心突破在于建立‘人格化强度分级备案制’:依据AI系统在声纹相似度(≥92%)、面部微表情同步率(≥85%)、长期记忆建模深度(≥30轮对话上下文维持)、情感反馈一致性(基于FER-2026基准测试≥88分)等四维指标综合评分,将服务划分为L1(基础拟人)至L4(强拟人)四级;L3及以上须向省级网信部门提交算法影响评估报告,并强制嵌入‘人格声明弹窗’——每次会话启动前必须以不可跳过方式告知用户‘本服务由人工智能驱动,不具备人类意识、情感或法律责任能力’。此外,《办法》首次要求所有拟人化AI服务提供商建立‘反沉迷响应机制’,当系统识别用户连续交互超90分钟或出现高频情感倾诉关键词(如‘孤独’‘无人理解’‘想结束生命’)时,须主动触发人工干预通道并同步推送心理援助资源链接。

业内专家普遍认为,《办法》并非抑制创新,而是以制度供给推动产业高质量发展。中国信通院政策与经济研究所指出,2025年我国拟人化AI市场规模已达327亿元,但投诉量同比激增210%,主要集中于未成年人情感依赖、老年群体财产诱导及职场AI冒充管理者下达指令等事件。《办法》配套发布的《拟人化AI服务安全评估指南》同步引入第三方检测认证体系,支持华为盘古、百度文心、讯飞星火等主流大模型厂商开展预合规测试。值得强调的是,《办法》特别设置‘教育豁免条款’:面向K12及职业教育场景的拟人化教学助手,在严格限定知识范围、禁用情感评价功能、全程留痕审计前提下,可适用简化备案流程——这与教育部同步推进的‘教师智能素养认证计划’形成政策闭环,彰显监管逻辑从‘风险防控’向‘价值引导’的深层演进。