5月12日,配音演员史泽鲲(大鲲)在抖音发布了一条特殊的“道歉”视频。这条道歉并不出自真诚的忏悔——他在为自己被《紫川》动画用AI盗用声音一事,向侵权方发出最尖锐的讽刺。五天前,史泽鲲已率先发布严正声明硬刚《紫川》动画;5月10日,动画方悄然删除侵权剧集,却至今未有任何道歉声明。无奈之下,史泽鲲只能以这种 “反向道歉” 的荒诞方式,继续为自己的合法权益发声。
令人心惊的是,在《紫川》这部动画中,遭遇AI声音侵权的配音演员不止他一人。放眼整个行业,AI漫剧、短剧更是侵权的重灾区。这场由被侵权者“反向道歉”的荒诞剧,折射出的不仅是个体维权者的无奈,更是一道亟待回答的时代命题:当一个人的声音可以被任意“偷走”,我们的人格权利边界究竟该如何划定?
AI仿声侵权之所以泛滥,首要推手是赤裸裸的商业利益。采集一段声音只需几十秒“干音”,上传到在线语音模型,几分钟就能生成以假乱真的合成声音,门槛极低、成本近乎为零。目前,AI仿声侵权已经形成了一条“素材采集—内容生成—流量变现”的灰色产业链。当侵权成本趋近于零,而流量收益动辄以亿计,逐利者自然蜂拥而至。
更深层的症结,在于法律与现实之间难以逾越的断层。《中华人民共和国民法典》第一千零二十三条早已明确“对自然人声音的保护,参照适用肖像权保护的有关规定”;2024年北京互联网法院在殷某桢案中更是确立了声音权益保护的“可识别性”标准。然而回到现实中维权却举步维艰。2024年配音工作室音熊联萌旗下三位配音演员维权,因举证困难重重,这场维权之路整整持续了半年,最终仅以侵权方下架音源、公开道歉告终。为了举证,配音演员甚至要反过来模仿AI模仿自己的声音,用不同状态录制好几个版本并从中找出最像AI的那一版。举证的繁琐可见一斑。违法成本远低于侵权收益,维权成本远高于所受损失,这种结构性失衡,让“偷声”成为一门低成本的灰色生意。
AI未经授权使用声音带来的危害,远比表面看上去更加深远。
首先,它构成了对自然人人格权的直接侵害,声音之所以被民法典参照肖像权予以保护,恰恰因为它是一个人身份的“听觉签名”,是人格标识的核心组成部分。问题在于,AI侵权比我们想象的更危险:它不只是简单的盗用,而是对人格信息的劫持。传统的肖像侵权,照片被用了还能追溯来源,但AI生成的声音却可以说任何话、表达任何情绪、出现在任何场景,而原主人却毫不知情。配音演员季冠霖的担忧道出了所有从业者的心声:“它用我的声音生成一段违法、行骗的语音,那我们怎么去界定它是AI还是我本人?”一个人可能在自己完全未参与的情况下,以“自己的声音”出现在虚假广告、违法犯罪记录里,甚至被用来攻击他人、欺骗亲友。声音本该是一个人“在场”的凭证,如今却有可能成为一件可以被偷走、用来否定本人存在的凶器。
这种危险不只落在名人头上。2025年,一位大学教授发现自己公开演讲的声音被AI合成去推销图书,她并非公众人物,仅仅是在工作中留下了声音痕迹便遭遇侵权。更让人后背发凉的是针对老人与孩子的AI拟声诈骗屡见不鲜。这些案件指向的是声音侵权独有的连锁效应:一旦熟悉的声音可以被伪造,人与人的信任就失去了又一道听觉的防线。过去我们常说“耳听为实”,现在连这句话似乎都作废了。每一次侵权和诈骗,都是在往这种信任底线上撕出裂痕——这才是AI“偷声”最深层的代价。
其次,AI“偷声”正在摧毁行业的根基。“如果未来没有更多的演员愿意在声音塑造上做事情的话,那就不可能再有新的素材。没有新的素材,AI就永远在旧的素材里无限循环。”当创作者的心血可以被轻易窃取,谁还愿意投入生命体验去打磨作品?长此以往,整个行业终将陷入创作枯竭的死循环。
当然,技术本身并非恶魔。AI声音技术可以帮助失语者“开口说话”,可以留存逝去亲人的声音,这些温暖的应用恰恰说明技术的正向价值。问题的关键从来不是技术,而是使用技术之人与约束技术的规则。正因为有这些美好的可能,我们才更应立即遏制和严惩侵权行为,为技术划定伦理与法律的边界,让好技术走在正道上。
回看史泽鲲那条“道歉”视频,那句“对不起”不该由受害者来说,而应由偷窃声音的侵权者、纵容侵权行为的平台,以及失序的行业生态,说给每一位被侵害的创作者听。仅有法律框架是远远不够的,更要大幅提高违法成本让侵权者不敢心存侥幸,加快建设声纹备案、声音水印等行业基础设施。声音不是免费的公共资源。它和肖像一样是一个人的人格标识,承载着不可被随意剥夺的尊严。技术可以复制声音,但不能复制人格;AI可以合成话语,但无法合成尊严。给声音以权利,给技术以边界,这才是AI时代应有的文明自觉。(中国社会科学院大学 窦晗月)
首页