來源:中國青年報 發布時間:2025-8-25 10:7
如果你是奧運冠軍的粉絲,突然在直播間里聽到偶像的聲音,要求你買貨,會不會立馬下單支持?
眼見不一定為實,耳聽也不一定為真。聽習慣了偶像語音的你,可能料想不到,那些惟妙惟肖的奧運冠軍聲音,竟然是由AI制作的。
據央視新聞報道,隨著AI技術的普及,“克隆”特定人物聲音,已實現“一鍵式”操作。在互聯網上,不僅有奧運冠軍的“聲音”突然開始推銷農產品,還有知名演員的“聲音”24小時不間斷在直播間與粉絲互動,可以說聽取“假”聲一片。
在一些人看來,利用AI克隆名人聲音,可算找到一棵“搖錢樹”。如果克隆的是肖像,眾所周知,別人的臉不能亂用。如果克隆的只是聲音,是否構成越界,或許連“聲主”本人都會有些心里沒底。
其實,從法律上講,與姓名權、肖像權、名譽權、隱私權等一樣,聲音也是一種重要人格權利。根據民法典,對自然人聲音的保護,參照適用肖像權保護的有關規定。此前,全國首例AI生成聲音人格權侵權案,法院也明確了收集、使用自然人聲音作為數據進行AI化處理,需獲得本人合法授權。
聲音對于自然人而言,具有鮮明的辨識度,由聲音的特質可以追溯至個人。AI并不能無中生有,克隆聲音需要“投喂”一定本體聲音,才能把握內在規律,形成以假亂真的“高仿品”。這個高度模擬的過程,一開始就建立在侵犯個體聲音權利的基礎之上。
令人不安的是,不僅是媒體曝光的奧運冠軍被“高仿”,有的影視明星、職業配音演員,甚至知名企業家也都成為受害者。專家擔心的與AI換臉等技術結合,生成高度逼真的“數字人”實施詐騙,并非杞人憂天。不法分子一鍵克隆、以假亂真,傷害的不僅是公民個人權益,更擾亂了市場經濟秩序和網絡生態環境。
AI是一把雙刃劍,既能推動社會進步,也能貽害不淺,關鍵是如何依法規制,讓這一新事物在法治軌道上運行。
從立法層面看,防止AI任性克隆,還需要在民法典規范的基礎上,進一步完善輔助性法規,形成健全的法律體系。今年3月,國家網信辦等聯合發布的《人工智能生成合成內容標識辦法》,要求服務提供者應當對文本、音頻、圖片、視頻等生成合成內容添加顯式標識等,這一規定有利于釜底抽薪,從源頭把住關口。
從執法層面看,針對違法亂象,應當加大綜合打擊的力度。除了依托中央網信辦在全國范圍內部署開展“清朗·整治AI技術濫用”專項行動,嚴肅查處違法行為,還需壓實網絡平臺等主體的監管責任,通過技術手段的迭代等,構筑起防范不良內容的銅墻鐵壁,保護每個人的人格權不受侵犯。
歐陽晨雨來源:中國青年報
2025年08月22日 05版