加騙徒AI合成語音冒「孫仔」長者接電話險中招
人工智能(AI)的語音技術日漸進步,有不法分子便利用AI隨意模仿出別人的聲線,騙取民眾尤其長者的信任,進而冒認其親人騙財。美國聯邦貿易委員會(FTC)的數據指出,冒名詐騙成為去年受害者第二多的騙案,當局共接獲超過3.6萬宗舉報。
據《華盛頓郵報》報道,FTC表示,當中逾5,100宗案件屬電話詐騙,涉及損失超過1,100萬美元(約8,634萬港元)。現時網上有許多AI語音生成工具,不法分子藉此從短短數句的音訊樣本中複製出別人的聲線,然後利用相同技術以新得來的聲線「說」出任何內容。
雖然冒名行騙手法五花八門,但運作方式大同小異:騙徒冒充值得信賴的人,例如子女或朋友,並以陷入困境為由,說服受害者向他們匯款。人工生成的語音技術讓騙徒冒認別人時更有說服力,令受害者信以為真。《華郵》指出,加拿大薩斯喀徹溫省的73歲老婦卡德某天接到電話,對方聲音聽來極像她的孫兒布蘭登,向卡德哭訴自己被捕,身上沒有手機或錢包,急需現金保釋。卡德信以為真,於是與75歲丈夫格雷斯立刻跑到銀行提款。銀行經理得悉後告訴卡德,不久前才有另一客戶也接到類似電話,後來發現那極似家人的聲音是AI偽造,卡德此時才驚覺可能被騙。
AI語音生成軟件能模擬聲線特點
專家表示,AI語音生成軟件能分析說話者的聲線特點,包括年齡、性別和口音等,然後從龐大的聲音資料庫中搜索出相似的聲音並進行模擬預測,最後重構出整體效果非常近似的合成聲線,這項技術只需一個約30秒的音訊樣本,例如YouTube的短片音頻。現時聯邦監管機構、執法部門和法院對這種新興騙局均束手無策,大多數情況下受害者無法辨認騙徒身分,警方也很難追蹤來自世界各地的詐騙電話和資金去向,現時也沒有法律先例,要求相關網上工具的製作公司為此負責。 ◆綜合報道