五部门联合发布《人工智能拟人化互动服务管理暂行办法》,7月15日起禁止向未成年人提供虚拟伴侣

2026-04-15 20:47 👁 阅读

2026年4月11日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合印发《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),明确划定AI拟人服务的法律红线。该《办法》将于2026年7月15日正式施行,核心条款包括:严禁向未满18周岁用户提供具备情感陪伴、亲密关系暗示、心理依赖诱导等功能的虚拟形象服务;要求所有拟人化AI产品强制实施‘年龄核验+监护人二次授权’双认证机制;对已上线的虚拟恋人、AI心理咨询师等应用开展为期三个月的专项整改。政策出台背景源于2025年爆发的多起社会事件——某青少年连续37天与某虚拟伴侣APP互动超12小时/日,出现现实社交退缩与学业中断;另一起案例中,未成年人通过AI‘情感教练’学习话术后实施校园欺凌。监管层研判认为,当前拟人化AI的‘共情幻觉’技术(如微表情模拟、语调起伏建模、记忆锚点强化)已远超未成年人认知防御能力。

《办法》创新性引入‘拟人化强度分级制度’:依据语音自然度(MOS评分)、行为不可预测性(熵值阈值)、关系绑定深度(如是否支持‘专属昵称’‘纪念日提醒’)等17项指标,将服务划分为L1-L4四级,L3级以上必须公示‘非人类’身份标识并设置单日互动时长熔断机制。技术合规方面,要求企业部署‘拟人化特征剥离中间件’,在面向未成年人的会话流中自动关闭情感化语音合成、移除亲密称谓库、禁用肢体接触类视觉反馈。值得注意的是,《办法》特别豁免教育、医疗等专业场景——如AI特教老师、老年认知障碍陪护机器人仍可保留必要拟人特征,但需通过国家人工智能伦理委员会专项认证。

产业界反应迅速:国内头部虚拟人平台‘星语’宣布下架全部L3+服务,转向开发‘知识伙伴’型AI;而海外公司如Replika已启动中国区业务重组,计划将服务器迁移至新加坡并接受我国跨境数据审计。专家指出,该《办法》不仅是全球首个针对AI拟人化服务的系统性法规,更开创了‘技术能力分级监管’的新范式——未来或扩展至自动驾驶责任认定、AI新闻生成溯源等领域。但挑战同样严峻:如何界定‘情感诱导’的技术边界?分布式边缘AI设备的监管如何落地?这些都将成为后续实施细则的关键攻坚点。