来源:经济日报
国家互联网信息办公室等4部门近日联合发布《人工智能生成合成内容标识办法》,自2025年9月1日起施行。这意味着,届时所有AI作品必须亮明身份,标注是AI生成。该《办法》聚焦人工智能“生成合成内容标识”关键点,为破解“AI造假”困局提供了依据。
近年来,人工智能大模型快速发展,为人们提供了便利工具,但在促进经济社会发展的同时,也带来了技术滥用的问题。AI技术降低虚假视频制作成本,被用来伪造明星代言、伪造科学家带货,让批量生产、快速传播、收割变现、注销换壳的欺诈营销快速形成闭环。为了吸引流量、快速起号,“深度合成工厂”利用AI技术批量生产虚假信息,猎奇、极端、煽动情绪的假新闻充斥互联网,令公众真假难辨。
当AI作品深入千家万户时,AI生成内容的以假乱真就会带来社会信任危机。《办法》的出台正当其时,本质上是一场重建人机信任的“革命”。当AI学会为自己的作品署名,人类才能安心与之共舞。
《办法》从三重维度筑牢治理防线,重点解决“哪些是生成的”“谁生成的”“从哪里生成的”等关键问题,实现全流程安全治理。
在技术层面,明确研发者的“身份编码”义务。
《办法》明确服务提供者应当对文本、音频、图片、视频、虚拟场景等生成合成内容添加显式标识,应当在生成合成内容的文件元数据中添加隐式标识。这相当于为每件AI作品颁发“数字身份证”,既便于监管部门溯源追责,也倒逼企业将伦理设计嵌入技术底层,实现生成式AI的全生命周期标识管理。
在平台层面,压实内容分发者的“身份查验”责任。
《办法》对内容分发平台的责任也作出详细规定。按要求,内容分发平台要核验文件元数据中是否含有隐式标识,必须采取措施对AI生成内容进行标识。此前,我国已有多个社交平台试点“AI内容防火墙”,提高虚假信息拦截率。未来,随着《办法》的实施,“源头标注+平台拦截”的双重机制,将重塑网络空间的信任生态。
在公众层面,激活社会监督的“身份认知”意识。
人工智能工具普及化,让每个用户都可能成为虚假内容的制作者和受害者。依据《办法》规定,用户发布AI生成合成内容时应该主动标识,任何组织和个人不得恶意删除、篡改、伪造、隐匿这些内容标识。可以想见,对公众而言,未来刷视频时先找“AI身份证”,会像过去买商品时看生产日期一样自然。而当人人都是“鉴定师”时,AI作品自然无处匿名。
当然,打造可信赖的人工智能技术并非一日之功。比如,《办法》中提到的隐式标识,在技术上能否被规避和移除?这还需要更多企业加强对人工智能安全的投入与研究,以合理成本提高系统安全性。
AI产业正在蓬勃生长。统计报告显示,我国人工智能企业数量超4500家,核心产业规模已接近6000亿元。截至2024年12月,我国有2.49亿人表示自己使用过生成式人工智能产品,占整体人口的17.7%。
AI技术进步和AI安全治理是“一体两面”,科技之光投射在合乎伦理的镜面上,才能照亮更长远的未来。让AI生成内容亮明身份,是科技向善的强制约束,是享利避害的制度设计。标识制度的施行,将为AI技术铺设可持续发展的轨道,让人工智能更好地服务于人类社会。