千奇百趣/AI語音以假亂真 電話詐騙更猖獗
【大公報訊】綜合法新社、CNN報道:人工智能技術不斷更新,網絡詐騙案的手段也花樣百出。美國有騙徒使用網絡上幾可亂真的人工智能(AI)語音克隆工具,假冒受害者親朋好友騙錢。根據聯邦貿易委員會的數據,去年,美國人在冒名頂替詐騙中損失26億美元(約202.8億港元)。專家表示,AI對人類最大的威脅,是模糊了真實和虛構的界線,讓詐騙犯利用廉價又有效的AI技術來散播假信息。
AI普及後,電信詐騙犯只需要在網上下載一個免費AI軟件,再利用某人幾秒鐘的聲音樣本,就能創造新的對白。總部位於美國的McAfee Labs上個月發布報告,在一項針對美國等九個國家共7000人的全球調查中,四分之一的人表示,他們自己或身邊的人經歷過AI語音克隆騙局。70%的受訪者表示,他們不確定自己能否「分辨出克隆聲音和真實聲音之間的區別」。
Blackbird.AI行政總裁哈立德表示:「AI語音克隆現在與真實人聲幾乎無法區分,這讓騙徒能夠更有效地從受害者那裏獲取信息和資金。」哈立德說,通過一個簡短的音頻樣本,AI可以生成語音文本、郵件,甚至可以製作實時語音轉換器,詐騙者可以使用不同的口音、性別,模仿受害者親屬的說話方式,創造出令人深信不疑的假音頻。
美國聯邦調查局(FBI)特工約翰遜表示,美國家庭平均在每次虛假綁架騙局中損失11000美元(約8.58萬港元)。根據聯邦貿易委員會的數據,去年,美國人在冒名頂替詐騙中損失26億美元(約202.8億港元)。
哭泣聲與女兒一模一樣
1月20日下午,住在亞利桑那州的母親德斯特凡諾接到一通陌生來電,德斯特凡諾本想掛斷,但一想到15歲的大女兒布麗安娜正在進行滑雪比賽訓練,德斯特凡諾不由擔心女兒是否出了意外,她接起電話,電話那頭傳來尖叫和哭泣聲,「媽媽!幫幫我!」德斯特凡諾後來接受採訪時回憶,她當時十分確信電話那頭是女兒的聲音,女孩連哭泣的音調都與布麗安娜一模一樣,「我沒有一秒懷疑。」
電話那頭很快傳來詐騙者的聲音,對方聲稱綁架了布麗安娜,要求德斯特凡諾支付100萬美元贖金。德斯特凡諾手足無措,試圖說服對方降低贖金金額,並讓一旁的小女兒打給與布麗安娜一起前往滑雪場的父親,但父女兩人一直杳無音信。好在旁邊的路人幫忙打電話報警,警方獲悉後判斷德斯特凡諾遭遇詐騙,布麗安娜也在數分鐘後打電話向母親報平安,這才讓德斯特凡諾免於錢財損失。
幾秒聲音樣本即可克隆
美國聯邦官員表示,諸如此類的冒名頂替騙局已經存在多年,騙徒青睞聯繫受害者的祖父母等親人,謊稱他們的孩子出事,藉此詐騙錢財,綁架者通常會使用通用的尖叫錄音。但官員警告說,AI普及後,此類騙案正變得越來越難識破,因騙徒能夠輕而易舉克隆聲音,並創造「對白」。
加州大學伯克萊分校計算機科學教授法里德表示,AI在詐騙者手中被武器化,「一段不到一分鐘的音頻,就能創建一個相當完整的克隆語音,有些人甚至說只需幾秒鐘就足夠了。」法里德補充說,在AI軟件的幫助下,每月只需5美元就能輕鬆實現語音克隆。不過,法里德指出,據他所知當前版本的AI軟件無法通過克隆聲音來表達各種情緒,但不能完全排除已經出現更先進的技術。
今年早些時候,AI創業公司ElevenLabs承認,其語音克隆工具可能被濫用於「惡意目的」。此前,有用戶利用該公司的軟件發布了一段演員艾瑪華森閱讀希特勒自傳《我的奮鬥》的深度偽造音頻。
風險投資公司Team8技術總監霍赫伯格說,人們很快無法再相信網絡上所見的一切,需要有新的技術來幫助確認網絡對面的到底是不是自己認識的人。