近期,互联网上频频出现奥运冠军的声音被用于农产品推销的现象,引发广泛关注。这些声音并非出自冠军本人,而是利用人工智能技术仿冒而成。在抖音平台上,一个名为“我是小助理吖”的账号发布了多条视频,使用AI技术模仿奥运冠军全红婵的声音推广土鸡蛋,误导大量粉丝购买,商品链接显示销量高达4.7万件。然而,全红婵的家人早已澄清,她从未代言或授权过相关产品。
类似的情况也发生在其他奥运冠军身上,如孙颖莎和王楚钦,他们的声音同样被不法分子克隆,用于带货直播。这些仿冒声音不仅以假乱真,还借助粉丝对奥运冠军的喜爱,骗取了大量订单。一些自媒体博主还利用AI克隆名人的声音进行24小时语音直播,其中演员靳东成为被仿冒最多的对象。这种行为背后隐藏着一条灰色产业链,通过诱骗粉丝打赏和快速增加粉丝数量,为后续牟利铺路。
不仅名人受害,配音演员也面临着AI克隆技术的滥用。武扬,一位从业十多年的职业配音演员,发现自己的声音被某餐饮企业用于宣传片,而这段配音并非他亲自录制。面对质问,对方承认使用了AI克隆技术,但拒绝公开道歉,仅愿支付5000元赔偿。武扬拒绝了这一提议,担心此举会被视为授权,导致侵权问题更加严重。另一位配音演员浩洋也遭遇了多次侵权,他的维权之路同样艰难。
那么,AI克隆声音究竟是如何实现的?记者调查发现,网络上充斥着大量关于声音克隆的教程视频和软件下载信息。网络安全专家指出,基于开源的语音大模型,只需一段清晰的语音样本,就可以在极短时间内克隆出任何人的声音,并操纵其说出任意内容。这种技术的滥用不仅侵犯了声音权等合法权益,更大的隐患在于可能被诈骗分子利用。一旦与AI换脸等技术结合,生成高度逼真的“数字人”实施诈骗,其危害将不堪设想。
针对这一问题,我国民法典明确规定了对自然人声音的保护,参照适用肖像权保护的有关规定。法律专家指出,若AI合成声音能让公众凭音色、风格关联到特定自然人,即具有法律可识别性,可构成侵权。任何自然人声音均应受法律保护,录音制品授权不等同于对声音AI克隆授权,未经许可使用或授权他人使用权利人的声音均属侵权行为。
为了整治AI克隆声音的乱象,平台应承担起监管责任,建立健全对AI声音的审核和侵权举报机制,及时发现和拦截侵权、虚假、违法等不良内容。今年3月,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》将于2025年9月1日起施行,明确了服务提供者应对生成合成内容添加显式标识等要求。同时,中央网信办也在全国范围内部署开展了“清朗·整治AI技术滥用”专项行动,旨在强化AI技术源头治理,清理整治违规AI应用程序,提升网站平台的检测鉴伪能力。