
「國慶假期7天,被『雷軍』罵了8天」「劉曉慶回應『畫面是我、聲音像我、但不是我』」……隨着AI生成技術普及,複製他人聲音、面貌的成本大幅下降,一些產品更以低至5-10元的價格,號稱「10秒生成明星聲線」,相關的濫用問題層出不窮。
大公報報道,近年更有不法分子以AI擬聲等技術「移花接木」,盜用名人聲音用於商業欺詐,令消費者以為其商品獲得名人代言、推薦,使商品銷量在短時間內暴漲。專家指出,由於對新技術存在「代際技術鴻溝」,老年群體更是這類AI消費陷阱的「重災區」。
抖音平台監測數據顯示,去年國慶假期期間,AI合成的小米CEO雷軍語音「吐槽」調休政策的短視頻持續霸榜熱搜;有網友調侃「國慶假期7天,被『雷軍』罵了8天」,相關話題累計播放量突破1.2億次。
更值得警惕的是,AI擬聲技術已被不法分子用於商業欺詐。
一杯咖啡價格 仿冒「華仔推薦」
在社交媒體平台上出現的《一路繁花》劉曉慶吃魚改編片段中,AI技術不僅篡改台詞植入產品,更匹配了與原嘉賓極為相似的音色。由於AI合成語音比AI換臉視頻更難辨別,且其成本已大幅下降,讓這項新技術成為詐騙分子的「新寵」。
2024年3月,某電商平台出現300餘條克隆劉德華聲音的促銷視頻。這些視頻通過AI技術完美復刻其嗓音,以「華仔推薦」名義推銷某品牌保健品。數據顯示,相關商品銷量在3天內暴漲217%,但隨後大量消費者作出投訴,當中78%用戶表示「因信任劉德華才購買」。
只需要15秒的語音片段,花費不到一杯咖啡的價格,任何人的聲音都能被完美克隆。記者在購物平台上搜索「AI人聲克隆」,「10秒生成明星聲線」「專業設備錄製+AI精修」等宣傳語下,價格從5.9元(人民幣,下同)到159元不等的多款AI聲音克隆軟件在售。據中國網絡視聽節目服務協會2025年1月發布的《2024網絡視聽內容生態治理白皮書》顯示,全年監測到AI聲音克隆平台2850家,生成語音總量超15億條;確認違規內容中,商業欺詐類佔比58%(偽造企業家帶貨等)。
雷軍:明確AI應用邊界紅線
而據中國老齡協會2025年1月發布的《中國老齡事業發展報告(2024)》顯示,涉及AI技術的電信詐騙案件中,60歲以上受害者佔比達42.7%;老年人人均直接經濟損失2.87萬元。不法分子通過AI換臉生成「專家」形象,利用變聲技術偽造權威聲線,在直播中宣稱普通食品「包治百病」,精準「圍獵」銀髮群體。
廣西消費者權益保護委員會宣傳部主任李佩霞表示,由於新技術對老年群體存在「代際技術鴻溝」,使得AI詐騙分子能夠精準突破心理防線,政府、平台以及社會各界需要共同努力,構建全鏈條防護體系。
身為AI合成受害者,雷軍亦在今年全國兩會期間提議,加快單行法立法進程,在安全與發展並重的基礎上提升立法位階。建議針對「AI換臉擬聲」等某一代表性問題,探索推出人工智能單行法,明確「AI換臉擬聲」應用邊界紅線,加大對利用人工智能技術實施犯罪行為的刑事處罰力度。
AI詐騙常見類型
聲音合成
•騙子通過提取某人的聲音素材,利用AI技術合成語音,冒充名人、親友、領導、客服等身份,誘導受害者轉賬或洩露個人信息。
轉發微信語音
•騙子在盜取微信號後,便向其好友「借錢」,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
「AI換臉」
•騙子通過截取或收集某人的面部視頻畫面,利用AI技術換臉,製造視頻聊天的假象,騙取受害者的信任和錢財。
AI程序篩選受害人
•騙子利用AI分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間內便可生產出定製化的詐騙腳本,從而實施精準詐騙。
(來源:大公報A12:內地 2025/03/15)

