裁員潮解散AI倫理團隊 演算法偏見問題難修復

  香港文匯報訊 愈來愈多科企推出自家人工智能(AI)技術及產品,但負責評估AI相關倫理問題的團隊成員,卻多在科企裁員潮中被解僱。《金融時報》前日報道稱,包括微軟、Meta、Google、亞馬遜和Twitter等公司都削減了AI倫理團隊成員,讓人擔憂日新月異的AI技術缺乏監管,很可能遭到濫用。

  加劇虛假資訊傳播

  報道指出,微軟今年1月已解散所有AI倫理與社會團隊,約10名員工被解僱。Twitter一個負責修復演算法中種族偏見的AI倫理團隊成員也被全數炒魷。Meta負責評估名下社媒平台道德規範問題的創新團隊同被解散。亞馬遜名下串流平台Twitch上周裁撤AI倫理團隊,據報要由研發團隊兼顧處理演算法偏見問題。

  報道指出,「ChatGPT」等AI聊天機械人問世後仍問題不斷,包括不時引述虛假消息或給出邏輯錯誤的答案,如果沒有AI倫理團隊監督,不排除會被用於傳播虛假資訊等。科企Alphabet名下AI公司DeepMind前倫理政策研究員斯特雷特直言,「如此多AI倫理團隊員工被解僱令人震驚,尤其科企現時相較以往任何時候,都需要更多這樣的團隊。」

  倫敦國王學院AI研究所主任拉克也認為,科企應設法保留AI倫理團隊,「我們無法完全預測新技術會帶來的東西,認真關注這些問題至關重要。」