專家:閉路圖像參差 辨識存「種族偏見」

  香港文匯報訊 美國紐約大學法學院警務項負責人兼人工智能(AI)政策顧問金賽指出,目前臉部識別軟件在實驗室測試中使用清晰的比較照片,表現是近乎完美。但在實際應用方面,由於警方採用的閉路電視(CCTV)圖像質素較差,警方使用該技術的準確性還沒有經過獨立測試,因此難以得知軟件出錯的頻率。

  此外, 研究人員發現使用AI工具的人,可能會出現「自動化偏見」,即傾向盲目信任強大軟件所作出的決定,而無視其風險和限制。倫敦大學學院一名神經科學家在2012年的一項研究發現,指紋檢查人員會受到電腦系統顯示可能匹配指紋的順序影響。他們更有可能錯誤地匹配出現在清單頂部的指紋,這表明他們出於對系統的信心,而未能正確評估其他潛在匹配指紋的相似性。

  有公民自由組織指出,在《華盛頓郵報》報道的8宗冤案中,除了佛羅里達州邁阿密的男子韋爾諾是白人外,其餘7名被錯誤拘捕的均是黑人,這顯示臉部辨識技術存在種族偏見。美國國家標準與技術研究院在2019年的一項測試顯示,相對於白人圖像,亞裔和非裔圖像被某些軟件錯誤識別的可能性最多高出100倍,這或是因用於訓練某些演算法的照片最初偏向白人。