当前位置: 首页 » 资讯 » 科技头条 » 正文

当甄嬛的声音不再属于季冠霖,下一个被AI偷走的会是什么?

IP属地 中国·北京 中新经纬 时间:2026-03-24 10:03:59

  中新经纬3月24日电 (宋亚芬)AI(人工智能)狂飙之下,明星与配音演员正掀起一场“声音与肖像保卫战”。

  曾为《甜蜜蜜》黎小军献声的叶清,其独特音色被AI高度复刻,擅自用于短剧旁白牟利;曾为《甄嬛传》中甄嬛配音而出圈的季冠霖,声音也被AI模仿,出现在魔改海外版影视内容中。

  不只声音被盗,明星肖像也沦为AI侵权重灾区。

  不久前,王劲松、成毅、迪丽热巴等演员,就AI滥用其形象用于商业及短剧一事公开发声维权。其中,迪丽热巴起诉某平台短剧利用AI换脸技术盗用其肖像牟利一事,已被北京互联网法院认定侵权行为成立,为同类案件敲响警钟。

  影视行业AI侵权为何频发?

  “这并不意外。某种程度上说,这正是影视行业走到AI时代的又一次警示。”中国电影艺术研究中心研究员皇甫宜川对中新经纬表示,其中的原因很简单。随着技术的快速发展,AI侵权的技术门槛越来越低,而相关规则的制定又落后于技术的发展,加之背后商业利益的推动,AI侵权现象随之出现。

  不过,由于AI侵权存在显著的取证困难,多数演员暂未通过法律途径维权。中国政法大学知识产权中心特约研究员赵占领道出了背后的困境:AI生成内容的传播链条复杂,往往涉及模型开发者、本地部署者、内容发布者等多个主体,且用户常以匿名身份操作,这导致侵权主体难以锁定。

  即便找到了,取证也是一道坎。

  “声音和肖像的‘AI化’并非简单复制,而是提取特征后的再生成。”赵占领解释,在司法实践中认定“具有可识别性”的标准往往需要专业鉴定,但行为人可能随时删除内容或调整模型参数,而电子数据的固定需要时间,导致AI侵权证据容易灭失。

  如何让AI“守规矩”?

  我国《民法典》第一千零一十九条对自然人肖像权保护已有明确规定。对自然人声音的保护,也参照适用肖像权保护的有关规定。既然法律有规定,为什么还有人敢踩红线?

  在赵占领看来,主要原因就是违法成本与侵权收益的严重失衡。“对于侵权者而言,即便最终败诉,赔偿金额与其利用流量获取的收益相比可能只是‘九牛一毛’。”

  要遏制这一乱象,赵占领建议至少应从两个方面努力。一方面,强化平台的事前审查与过滤义务,推动落实AI生成内容的强制性标识制度;另一方面,确立“全链条”的法律责任。司法实践上不应仅限于追究直接使用者的责任,对于提供开源模型却未设置有效安全机制、明知用户将用于侵权仍提供技术支持的开发者,以及放任侵权内容传播的平台,应根据其过错程度追究相应的侵权责任。

  皇甫宜川也强调,防止AI侵权不能只靠现有法律进行“事后打官司”,更需要形成一套事前、事中和行业协同的防范体系。首先,应从源头抓起,提高“以技术防技术”的能力。其次,行业要建立更有效的自律规矩,形成统一、透明的授权机制,让合规变得简单,侵权变得困难。再次,平台要真正担当起主体责任,不能只追求流量。

  皇甫宜川还强调,影视行业的每一个人也都应该守住最基本的伦理底线。“AI只是工具,不应该成为掠夺原创、伤害创作者的武器。只有尊重每一位原创劳动者,把侵权的口子扎紧,把原创的权益护牢,行业才会有生命力,才会有发展前景。”(中新经纬APP)

  中新经纬版权所有,未经授权,不得转载或以其他方式使用。

责任编辑:袁媛 贾亦夫

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。