AI“换脸”获判,“偷声”困局何解?配音演员集体发声,律师直指困境:举证难、成本高、获益小

AI(人工智能)技术突飞突进下,演员的脸与声音成为被“偷猎”的重灾区。

2025年,某短剧疑似AI换脸迪丽热巴事件引发行业关注,时隔一年,近日,北京互联网法院通报相关肖像权纠纷案,明确制作方、播出方侵权责任,为肖像权保护划定司法边界。与此同时,边江、季冠霖等知名配音演员接连发声维权,直指AI“偷走”了他们的声音。

AI技术飞速发展下,艺人的“脸”与“声”接连成为被窃取的资源。“‘脸’可以一眼识破,声音却难以精准判断,存在举证难、维权成本高、受益小的问题。”北京市隆安律师事务所上海分所律师贾玉倩向《每日经济新闻》记者指出,从“看得见”的换脸到“听得见”的偷声,AI技术正在以不同难度挑战着演员人格权的保护边界。

“神似而非一模一样”也构成侵权

去年4月,某短剧中的女演员被疑似使用AI技术换脸成迪丽热巴,引发争议。今年3月20日,北京互联网法院通报了此案审理结果,认定短剧制作方利用AI换脸技术将原告肖像拼接至短剧角色面部,致使公众误认其参演,构成侵权;播出方作为播放平台,未尽合理审查义务,也构成对原告肖像权的侵害。最终,两被告被判赔礼道歉并赔偿经济损失。

据悉,涉案短剧共44集,总时长约90分钟,其中两个片段使用了AI换脸技术。法院经审理认为,尽管AI合成的肖像与本人存在差异,但只要能被一般公众、特定行业人群识别,即可认定为使用了特定自然人的肖像。

北京星权律师事务所律师邓以勒在接受《每日经济新闻》记者采访时表示,该案为AI创作划定了“不得侵害人格权”的司法底线,其判决价值在于明确了AI换脸“神似而非一模一样”也构成侵权,并强调了“技术中立不等于责任豁免”,从证据规则上堵死了借AI技术逃避侵权责任的路径。

记者注意到,在AI“换脸”维权迎来标志性判决的阶段,影视行业另一关键环节——配音演员正陷AI“偷声”的困扰。近日,曾为《甜蜜蜜》中黎小军、《无间道》中刘建明配音的叶清发现,自己的声音被高度还原并用在了一部AI生成的短剧中。知名配音演员季冠霖的声音也被仿冒,用于“魔改”印度版《甄嬛传》,遂展开集体维权。

记者采访获悉,AI生成的声音不仅被用于制作魔改短剧、虚假广告,甚至可能被用于诈骗场景,给配音演员带来极大的法律风险和声誉损害。

不只配音演员个体,国内头部配音公司音熊联萌也公开反对AI“偷声”。其发布声明称,“声音是配音演员安生立命之根本,与样貌一样具有专属人格权益,受相关法律法规严格保护”明确反对任何个人、机构、平台未经书面授权私自采集、录制、提取旗下配音演员声音素材,并将其用于AI训练、语音生成、声音复刻合成等用途。

(图片来源:微博截图)

AI“偷声”维权为何举步维艰

从影视剧市场和行业的角度来讲,贾玉倩认为AI换脸、偷声的问题,一方面会引发观众的质疑和反感,降低行业诚信度;另一方面也可能造成行业间互相模仿,加剧技术滥用。“带来的法律风险毋庸赘述。低成本的诱惑造成技术滥用,会引起行业内的恶性竞争,挤压真正优质作品的生存空间,形成‘劣币驱逐良币’的市场现象。”

与AI“换脸”相比,AI“偷声”维权更难,不是因为完全“无法可依”,而是因为落到实操层面,门槛明显更高。根据《民法典》,对自然人声音的保护,参照适用肖像权保护有关规定。

2024年,北京互联网法院审理的全国首例AI生成声音人格权侵权案也已明确,在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。但“有依据”不等于“好维权”。贾玉倩向《每日经济新闻》记者指出,“脸可以一眼识破,声音却难以精准判断。”

贾玉倩进一步指出,虽然声音参照肖像权也受到法律保护,但其维权之路面临三大难点:首先是举证难,面部识别的容易度远高于声音,普通配音演员很难证明AI训练模型的声音数据来源于自己;其次是维权成本高、收益小,明星团队有专业法务支持,但普通配音演员难以承受;最后,民事诉讼“不告不理”的原则,意味着配音演员必须主动起诉,这又回到了前两个难题上。

邓以勒也向《每日经济新闻》记者补充道,声音具有“转瞬即逝”的特点,难以第一时间识别侵权,且检索困难,目前主要靠人工听查,效率极低。此外,声音容易被剪辑、变速、拼接处理,原始状态难以固定,进一步增加了维权难度。虽然面部肖像权已有法律“盾牌”,声音人格权却面临“无明确法规、无统一鉴定标准、无高效维权路径”的尴尬局面。

全链条监管与技术水印或成破局关键

无论是AI换脸还是“偷声”,背后都反映出部分从业者在技术浪潮下的投机心态。一位影视行业人士曾告诉《每日经济新闻》记者,在短剧市场竞争日益激烈的背景下,一些制作公司信奉“唯流量论”,不惜通过“偷奸耍滑”的方式,将明星的面孔或声音“植入”作品以吸引眼球,“这会扰乱行业和市场,坚决抵制这类偷奸耍滑”。

多位行业和法律界人士均向《每日经济新闻》记者指出,面对AI技术带来的挑战,演员们的“脸声”保卫战需要多方合力。

邓以勒呼吁,应完善AI深度合成的全链条监管制度。她指出,声音侵权之所以难根治,根源在于训练数据不透明、模型使用无备案。她建议,未来可以建立数据采集的知情同意规则,并落实商用AI工具的备案与标识义务,通过“事前管控”来分担“事后追责”的压力。同时,建立顺畅的投诉反馈机制,完善快速下架与溯源机制也至关重要。

在行业与个人层面,事前设防与事后维权的结合显得尤为关键。贾玉倩建议,演员可以在与合作方的合同中明确,未经授权不得使用其声音进行AI训练、合成或克隆,并通过在商用配音中嵌入水印等技术手段,实现溯源追责。

与此同时,贾玉倩还表示,除了诉讼,其他维权手段中,最快速低成本的就是平台配合投诉快速下架侵权内容,除此以外,行业集体维权也可以起到壮大声势、降低个体成本的作用,再配合行政投诉、公开声明等,向公众声明被侵权,都可以辅助维权。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平