全球首部AI拟人化互动服务专项法规落地:中国五部门联合发布《人工智能拟人化互动服务管理暂行办法》
2026年4月10日,国家网信办、工信部、公安部、市场监管总局与国家广电总局五部门联合公布《人工智能拟人化互动服务管理暂行办法》,自2026年7月15日起施行。这是全球范围内首部聚焦AI模拟人格特征、思维模式与持续性情感交互行为的专项行政法规,标志着AI治理从通用风险规制迈向场景化、人格化细分监管新阶段。该办法精准锚定当前爆发式增长的AI陪伴机器人、虚拟恋人、数字亲人等服务形态,明确将“以自然人人格特征为蓝本、旨在建立长期情感依赖关系”的互动服务纳入强监管范畴,而智能客服、知识问答等工具型应用则被豁免适用,体现分类施策的立法理性。
动态层面,办法构建起三大核心防线:其一为身份提醒机制,要求用户连续使用超2小时须触发弹窗或语音提示,破除‘拟人幻觉’;其二为心理保护红线,严禁向未成年人提供虚拟亲属/伴侣类服务,并对14岁以下用户实施监护人明示同意前置;其三为数据安全刚性约束,规定敏感个人信息(如生物识别、心理测评、病历记录)不得用于模型训练,除非取得单独、书面、可撤回的同意。同时,办法明列八类禁止性内容,包括诱导自残自杀、煽动极端情绪、伪造权威身份及危害国家安全等,形成内容安全闭环。
该法规的落地将对产业生态产生结构性影响。一方面,倒逼AI情感交互类产品重构产品逻辑——从‘拟真沉浸’转向‘透明可控’,加速‘可解释性人格接口’技术发展;另一方面,推动企业建立AI伦理审查委员会与情感风险评估流程,催生第三方合规审计、人格化交互安全检测等新兴服务市场。执法端亦同步强化,多地公安机关已启动AI造谣与深度伪造专案侦查,市场监管总局同步公布五起AI不正当竞争典型案例,释放‘严监管+快执法’信号。
展望未来,该办法将成为全球AI人格化治理的重要参考范本。随着欧盟AI法案修法聚焦GPAI模型嵌入风险、美国各州就AI代理责任展开立法竞赛,中国以场景为切口的精细化立法路径,或将推动国际标准组织(如ISO/IEC JTC 1/SC 42)加快制定‘AI拟人交互安全测试框架’。值得注意的是,办法预留了与《智能体规范应用与创新发展实施意见》《网络安全法》第二十条的制度衔接接口,预示我国正加速构建‘基础法律—专项规章—行业指南’三级AI治理体系,为全球AI治理提供兼具创新激励与风险防控张力的中国方案。