AI偷聲盜面 警「一手」拆穿
預製「變臉」眼神口形不協調 要求做指定動作現破綻
網絡騙案防不勝防,有圖/有片有真相的日子恐成過去。AI人工智能「換臉」、「換聲」的「深偽技術」開始運用於詐騙,全球出現零星個案,香港今年亦收到兩宗涉及AI詐騙查詢。儘管因技術和成本等原因尚未成為詐騙主要類型,警方仍提醒市民應及早提高防範意識,建議遇上懷疑騙局時可叫對方在鏡頭前做指定動作來識破「真人假象」,同時提醒市民避免接聽陌生人的視像電話、保護好個人臉部、聲音等生物特徵信息,免被騙徒收集成數據用來「換臉」「換聲」造假行騙。
利用AI技術生成的deepfake(深度偽造技術),是透過人工智能作深度學習的方法,模擬特定對象的多角度面部特徵和聲音,製成高仿真的模擬影聲,有海外個案顯示此技術已被騙徒利用來行騙(詳見另文)。
目前香港警方尚未接獲涉AI詐騙案的舉報,但警方獲悉有兩宗涉及香港元素的個案查詢。今年5月一名日本男子在社交平台瀏覽到一名香港銀行CEO賬號,發現內有關於在香港投資的新聞報道片段,殊不知是騙徒以深偽技術製造新聞女主播推介投資項目及專訪CEO的報道。日漢信以為真,最終被騙購買1,570港元的點數卡,他其後致電涉事銀行尋找該名CEO,銀行指並無此人,男子和銀行都將事件通知日本警方,並得知騙徒是盜用了另一間銀行CEO的樣貌。
今年3月一名25歲香港男子在交友平台玩裸聊,被誘騙下載不知名手機程式,騙徒透過程式的視像功能盜取港男的樣貌及手機電話簿,再以「深偽技術」將其頭像移花接木到色情影片,並向事主勒索1萬元。事主拒絕付款,但他只是通知警方,沒有正式報案,故香港警方暫未接到利用「深偽技術」實施詐騙的報案。
警委4督察組「防騙刑警」
警方網絡安全及科技罪案調查科首次委任4名警務督察作為「防騙刑警」,包括高級督察吳柏慧、高級督察陳智穎、高級督察張文瀚及督察梁珮筠,日前向本報等媒體講解和分析「深偽技術」騙局的趨勢。警方並演示利用AI「變臉」的手法,以數星期時間搜集及模擬到一名警司臉部資料,將其套用在另一人身上並作實時視像聊天,可是因數據不完善,畫面中被偽冒人物的眼神、口形出現不協調,臉部邊緣線不自然。
警方指,要特別留意手指在鏡頭擺動的動作,因數據不完整及電腦運算力不足,無法應對突然改變的畫面,令手指動作變得模糊和遲滯,所以市民若有懷疑,只要叫對方在視像中做出用手指橫過臉部的動作,便可看出破綻,即可判定這可能是一個假影像。
警方指利用「深偽技術」作視像電話,其實都是騙取受害人信任度的一個行騙手段,整體套路與傳統手法大致相同。惟科技發展一日千里,市民必須時刻保持警惕,謹記「眼見不一定為實,有圖並不一定是真相。」