《人工智能生成内容安全管理办法(升级版)》2 月正式施行
2026年2月17日,《人工智能生成内容安全管理办法(升级版)》正式施行,这是我国进一步规范AI生成内容(AIGC)监管的重要举措,旨在强化AIGC全流程安全管理,防范内容安全风险,推动AIGC产业健康有序发展。
升级版《办法》在原有基础上,进一步细化监管要求,覆盖AIGC研发、生成、传播、使用等全环节。核心内容包括:明确AI生成内容的安全底线,严禁生成虚假信息、暴力色情、仇恨歧视等违法违规内容;要求企业建立AIGC内容审核机制,配备专业审核人员,对生成内容进行事前审核、事中监测、事后处置;强化溯源管理,要求平台建立深度合成内容溯源机制,留存日志不少于6个月,确保生成内容可追溯、可核查;同时,明确企业主体责任,对违规生成、传播违法违规AIGC内容的企业,依法予以处罚。
此外,《办法》还针对AIGC标识、未成年人保护、版权保护等重点问题作出具体规定,要求AI生成内容必须进行显著标识,不得冒充真人传播;严禁利用AIGC侵害未成年人权益,防范未成年人接触不良内容;明确AIGC生成内容的版权归属与使用规则,防范侵权行为。据了解,办法施行以来,网信办已开展专项整治,半月内清理违规AIGC信息54万条,有效规范了行业秩序。业内人士表示,升级版《办法》的施行,填补了AIGC监管的部分空白,为企业合规发展提供了明确指引。
