2025年8月31日,微信通过“微信珊瑚安全”公众号发布《关于进一步规范人工智能生成合成内容标识的公告》,宣布将严格落实《人工智能生成合成内容标识办法》要求,对平台内AI生成内容实施显式与隐式双重标识,并强化用户发布规范。这一举措不仅是对国家监管政策的响应,更标志着中国互联网平台在AI治理领域迈出关键一步,为全球数字内容生态治理提供了中国方案。
根据国家网信办、工信部、公安部、广电总局四部门联合发布的《人工智能生成合成内容标识办法》,自2025年9月1日起,所有AI生成的文本、图片、音频、视频及虚拟场景内容必须添加显式标识(如文字提示、图标标记)和隐式标识(如数字水印、元数据编码)。微信此次公告明确,平台将通过技术手段自动识别AI生成内容,并在用户发布时强制添加标识,同时对可能存在混淆的内容进行提示。例如,视频号和公众号中AI生成的内容将显示“AI合成”标签,下载或导出时也会保留元数据标识。
这一举措与中央网信办同期开展的“清朗·整治AI技术滥用”专项行动形成联动。该专项行动聚焦AI换脸、语音伪造、虚假信息生成等乱象,要求平台提升检测能力,清理违规应用。微信的规范措施正是对专项行动要求的具体落实,体现了平台在技术治理与合规运营中的双重责任。
公告明确要求用户发布AI生成内容时需主动声明,禁止以任何形式篡改、伪造或隐匿平台添加的标识。这一规定针对当前AI内容滥用的三大痛点:
法律专家指出,根据《民法典》《网络安全法》及《生成式人工智能服务管理暂行办法》,用户若删除AI标识或传播违规内容,可能面临平台处罚甚至法律追责。例如,伪造奥运冠军声音推销商品的行为,已构成虚假宣传和侵权,需承担民事赔偿及行政处罚责任。
微信的规范措施不仅是对监管要求的响应,更可能引发行业连锁反应:
对比其他平台,微信的规范更注重全流程管理:从生成端的标识添加,到传播端的用户声明,再到违规行为的处罚机制,形成了闭环治理体系。例如,抖音、快手等平台虽已上线AI内容提示功能,但尚未强制要求用户主动声明。
微信此次规范AI内容标识,不仅是合规动作,更是数字时代信息治理的重要里程碑。通过技术手段与用户教育的结合,平台正在构建一个更透明、可信的内容生态。这一实践为全球AI治理提供了中国经验,也为未来技术发展划定了清晰的伦理边界。