AI參與犯罪案例

  •網絡詐騙:犯罪分子利用深偽技術(Deepfake)技術進行「換臉」、克隆聲音等多種方式,製作逼真的合成視頻或音頻,實施網絡詐騙,盜竊用戶身份或者偽造信息。

  •「深偽」色情犯罪:「深偽」等AI技術可用於製造色情圖片和影片,受害者多為女性,包括未成年人,甚至被用於敲詐勒索。去年,韓國爆出大規模針對女性的「深偽」色情影像性暴力事件,受害者遍及大、中、小學,韓國政府為此加大力度打擊。英國政府在今年1月7日宣布,未經同意利用AI製作深偽色情影像將構成刑事犯罪,一經定罪最高監禁兩年。

  •敲詐勒索:2024年5月,日本神奈川縣一名25歲男子利用多個生成式AI的問答功能,製作可用於惡意勒索的電腦病毒。該男子被判處有期徒刑3年,緩刑4年。該起案件是日本首例因濫用生成式AI而被判刑的案例。

  如何防範AI相關犯罪?

  •對於AI生成的文本、圖片、視頻打上特製水印:這是目前眾多科技公司防止AI被濫用的常用做法。

  •加強對AI的監管:AI公司要隨時加強防護,堵塞可能導致緊急危害的安全漏洞,如設置敏感詞句提醒等。

  大公報整理