內地啟動先導計劃 防範算法歧視等AI倫理風險

  圖:內地啟動AI科技倫理審查與服務先導計劃。圖為鄭州一位訓練師在訓練機器人。\新華社
  圖:內地啟動AI科技倫理審查與服務先導計劃。圖為鄭州一位訓練師在訓練機器人。\新華社

  【大公報訊】記者郭瀚林北京報道:當前,算法歧視、情感依賴等科技倫理風險日益凸顯。近日,工業和信息化部印發《關於實施人工智能科技倫理審查與服務先導計劃的通知》(以下簡稱《通知》),依託國家人工智能產業創新應用先導區所在省份,率先探索人工智能科技倫理審查與服務的落地路徑,健全多方參與、協同高效的治理機制,支撐人工智能負責任創新和產業高質量發展。

  據了解,今年4月,工信部等十部門聯合印發了《人工智能科技倫理審查與服務辦法(試行)》。在此基礎上,工信部組織實施人工智能科技倫理審查與服務先導計劃,推動該政策在部分城市率先落地,進一步明確了地方政府部門和各類創新主體推進人工智能科技倫理審查與服務落地實施的具體操作路徑,通過設置一系列重點任務,着力推動在實踐中探索經驗、完善制度。

  《通知》明確,國家人工智能產業創新應用先導區所在省份的省級工業和信息化主管部門組織各先導區城市及有意願的其他城市參與先導計劃。各城市聚焦人工智能基礎底座以及製造、教育、科技等垂直應用領域,開展人工智能科技倫理審查和專家覆核工作。通過此次先導計劃,將建設一批專業機構和人才隊伍,制定並驗證一批標準,建成人工智能科技倫理風險案例庫。

  專家:倫理審查成產品合規條件

  北京大學軟件工程國家工程中心博士、信息安全專家潘克峰在接受大公報記者採訪時指出,在AI時代,「一刀切」監管不但難以適配差異化風險,還可能阻礙技術進步,新政摒棄了統一推進模式,而是依託多個人工智能先導區開展差異化試點,探索「一領域一標準、一風險一預案」新路徑。此外,先導計劃明確將風險前置到研發階段,要求企業建立「倫理嵌入研發」的剛性機制,將倫理審查作為AI產品上線的前置條件,從制度上倒逼企業從「要我合規」轉向「我要合規」。

  「中國未來需要走出一條『發展與規範並重』的中間道路。既要守住不發生系統性倫理風險的底線,又要為技術創新預留充足空間。隨着這套治理體系逐漸成熟,才能培育出更安全、更可信的AI產品。」他說。