“臣妾做不到啊”——这句话,你可能听过无数次,却未必知道,说这话的声音,正在被AI批量贩卖。
从《甄嬛传》里的甄嬛,到《无间道》里的刘建明,这些令人熟悉的声音,正在被AI批量“抄袭”,成为短剧、有声书、广告里的配音。
面对这一情况,3月下旬,有多位知名配音演员公开表态,如为《甄嬛传》《疯狂动物城》等经典作品配音的演员季冠霖发文称,“在未经本人授权的情况下擅自采集我的声音进行人工智能技术合成,生成与本人声音高度相似的AI音频内容并用于商业及非商业用途的二次加工创作,此类作品的传播与使用,严重侵犯了本人的合法权益。”此后,边江、张杰等数十位知名配音演员相继转发,联合发声——这是中国配音行业,对AI声音侵权最大规模的一次集体反击。
新京报贝壳财经记者发现,过去需要专业录音棚和大量样本才能完成的语音克隆,如今借助开源模型和少量音频素材即可实现。在一些电商平台,完全“克隆”一个声音的成本低至5元,而购买一个声音克隆软件的成本甚至低至1元。
配音演员的声音究竟是如何被“偷走”的?维权之路为何如此艰难?这场关乎声音权益的博弈,正在拷问技术时代的伦理底线。
浙江垦丁律师事务所主任律师张延来在接受新京报贝壳财经记者采访时表示,配音演员的维权行动是AI时代数字人格权益保护的必然,也是对AI技术发展提出法律边界的合理诉求。
“蒙眼狂奔”的AI声音克隆技术:1元买软件,5元买服务
季冠霖曾为《甄嬛传》《疯狂动物城》等知名影视作品配音,她发现,在一部“魔改印度版《甄嬛传》”中,甄嬛的声音是她的——但角色完全不是她配的,“声音很像,但角色不像。”
这种“声音像但灵魂不在”的违和感,正是AI仿声的致命问题,也是配音演员们愤怒的根源。他们的声音,正在被当作免费的原材料,批量投喂给AI,然后被用来生产那些他们从未授权,甚至根本不认同的内容。
新京报贝壳财经记者发现,当前AI仿声的技术门槛低廉,已经到了个位数甚至使用免费的开源软件就能完成的程度。同时,演员的声音“素材”获取成本也几乎为零。侵权者通过短视频平台、影视剧片段、配音作品,擅自剪辑、提取配音演员的声音,无需任何授权,甚至无需接触配音演员本人,就能获取大量声音素材。
电商平台截图
记者在某电商平台以相关关键词搜索发现,提供原始音频+文案,最后生成AI配音的相关服务,其收费在5元-100元不等。
电商平台截图
此外,还有直接售卖语音克隆软件的,收费仅仅一元。卖家在介绍中表示,软件“适配自媒体、短视频旁白、有声书等,还有克隆明星的‘创意玩法’。”事实上,记者在开源平台上也发现了类似的声音克隆软件,可供用户免费下载。
那么,声音克隆要多久才能完成呢?贝壳财经记者注意到,在商家的宣传中,3—15秒的声音文件足可以完成声音的“一比一复刻”。
对此,记者首先体验了一款开源版本的AI软件,在经过3分钟的记者本人的录音“训练”后,该软件复刻了记者的“声音模型”。此后输入任意文本,软件即可口播出自己的声音。记者发现,经过模型训练后,记者在发音时的一些吐字习惯都被模型牢牢记住,对于一些较短的语句,连记者本人都识别不出这是机器合成的语音,而生成长语句时,则会出现瑕疵,但只要多次生成,再从中挑选合成效果较好的语句,总有可以“以假乱真”的声音出现。
值得注意的是,这些AI软件的创作者并非不知道自己的软件可能用来模仿其他人的声音,如一款软件的作者在使用界面中标注称,“本软件以MIT协议开源,作者不对软件具备任何控制力,使用软件者、传播软件导出的声音者自负全责。”也有卖家对记者表示,软件“仅限个人学习使用”。
AI仿声隐蔽性远超AI换脸,维权成本高
另一方面,相比时不时就会引发关注的“AI换脸”,AI仿声侵权的维权难度更大。这是因为AI可以通过微调音色、语调,将多个配音演员的声纹“拼接”在一起,形成相似度极高的仿声,做到“高度相似非1:1复刻”。
配音演员李龙滨称,“经常会有朋友发过来,说龙滨老师这是你的声音吗?我听了一下,真的很像。尤其是短的、手调之后,我觉得相似度能达到百分之九十以上了。比如我配张家辉的《激战》里边的场面,经常会被AI,而且它改完词之后二创,有时候连我自己都要仔细分辨一下。”
AI声音复刻的取证链条更是薄弱。网络传播的AI语音多为碎片化二次加工,难以追溯源头和固定完整侵权链路。配音演员叶清无奈地说,一般情况下,要找一些点击率比较高的视频,才有维权的价值。找到视频发布者的信息很难,律师花了很长的时间,可能持续一年,才找到第一个侵权人信息。而且还有取证的问题,你怎么证明这个声音就是你的?那可能要做声纹鉴定,其实也是耗时耗力的。
目前司法实践中,如何认定AI仿声侵权尚无统一标准。全国首例AI生成声音人格权侵权案明确,在具备可识别性的前提下,自然人声音权益的保护范围可及于AI声音。但“可识别性”的判断标准模糊——有的认为“相关公众”能识别即可,有的要求“一般社会公众”能识别。对于非明星配音演员,即便声音高度相似,也可能被认定为不构成侵权。
声音可以被剪辑、篡改、变速,AI微调即可实现“高度相似非复制”,司法鉴定尚无统一标准。而一些明知故犯的侵权者,正是看准了维权成本高、取证难、鉴定难的特点,才敢肆无忌惮地用配音演员的声音牟利。
AI仿声的隐蔽性,让维权之路布满荆棘。配音演员们面临的困境重重:取证链条弱,侵权链路难以追溯;鉴定难,技术层面难以界定;成本高,维权性价比较低;法律滞后,监管存在空白。四大核心困境,让很多人即便遭遇侵权,也只能无奈放弃,这也是AI仿声侵权泛滥的关键原因。
用魔法打败魔法?专家建议通过加水印等技术手段“打假”
“从法律角度看,未经许可使用特定人声训练AI模型并使用,很可能构成对配音演员声音人格权的侵犯,甚至可能涉及不正当竞争。这与利用他人肖像、姓名进行商业宣传的逻辑是相似的。”张延来告诉贝壳财经记者。
《中华人民共和国民法典》第一千零二十三条明确,自然人的声音参照肖像权予以保护,声音作为人格标识具有独立法律地位。2024年4月,北京互联网法院一审宣判全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音,被告赔偿原告各项损失25万元。
这个判例给行业吃了一颗“定心丸”。
但这远远不够。“从商用角度看,如果配音演员的声音被无偿、无限制地用于训练AI,那么他们将失去对其声音商业利用的控制权,直接损害其经济利益。目前司法实践中已经出现了支持AI领域声音维权的案例,未来这类维权行动和相关判例也只会越来越多。”张延来告诉贝壳财经记者。
由于AI克隆声音“维权难”的特点,有专家呼吁,未来可通过加水印等技术手段,为AI声音搭建可追溯、可识别的安全框架。
在技术层面,张延来表示,通过技术手段可以嵌入数字水印或元数据,使得AI生成的音视频内容具有可追溯性,能够准确识别内容的出处。这类技术可以帮助平台和监管机构快速检测出虚假信息并阻止其传播。同时,可以开发更强大的AI模型用于检测深度伪造内容,这类反伪造AI可以应用于社交媒体、新闻平台等,自动过滤虚假内容。
有专家认为,对于在AI声音中嵌入水印,需要统一的、规范的技术标准。配音演员可以为自己的声音和声纹做一个单独备案,以便将来更好地追责。有了相关的判定,叠加监管制度、标识制度和取证制度的逐步完善,对配音演员声音的有效保护机制能够迅速建立起来。
实际上,技术本身没有对错,但技术的使用是有边界的。这个边界,就是人格权的尊严。AI可以复刻音色,但难以复制情感流动和配音演员本人的即兴火花。人类声音的“人性温度”是无法由算法量化的。
新京报贝壳财经记者 罗亦丹
编辑 岳彩周
校对 付春愔