私隱專員警告:代理式AI權限大風險更大
香港文匯報訊(記者 廣濟)「養龍蝦」(OpenClaw)熱潮今年初席捲全球各地,香港特區政府個人資料私隱專員公署就開源系統OpenClaw及其他代理式AI發出警示,提醒機構及市民使用前需留意個人資料私隱及安全風險。個人資料私隱專員鍾麗玲日前接受香港文匯報專訪時指出,代理式AI(又稱AI智能體)與傳統大語言模型有明顯分別,其私隱風險明顯更高。研究顯示在大約一萬個技能中,有超過800個屬於惡意,即是大概每12個技能就有一個已被植入惡意程式。若用戶安裝這些技能,AI智能體可能執行錯誤指令,甚至讓黑客取得整個電腦的控制權。
十二分一技能被植入惡意程式
鍾麗玲在訪問中提及兩宗涉及AI功能的海外個案。第一宗是海外科技公司個案,一名員工向人工智能系統提供公司原始碼,結果構成資料外洩事故,公司即時停止相關AI的運作,並通知員工暫停使用。第二宗是美國連鎖快餐店,店方使用AI語音點餐系統,但在實行前測試不足,推出後因環境雜音導致點餐嚴重偏差,例如顧客只點一個雞餐,系統卻記錄成十個;又或顧客點雪糕,送上的卻是雪糕加茄汁,最終在100個零售點全面停止AI點餐計劃。
鍾麗玲表示,傳統AI主要負責回答問題、做簡單總結或分析,像一個「機械人朋友」,但代理式AI則像一個「私人助理」或「執行者」,可根據指令主動執行任務,例如進行網購、回覆電郵、訂飛機票或繳交水電費。由於需要執行這些任務,代理式AI的權限遠大於傳統AI,往往需要存取用戶的銀行戶口資料、密碼、電郵及文件等。因此,從保障個人資料私隱的角度,代理式AI帶來的風險比一般大語言模型更高。
指令誤解或致電郵誤刪
指令誤解亦會加劇使用風險。例如用戶只想買一張去倫敦的機票,但AI可能誤解為購買頭等艙;或用戶只要求刪除一封電郵,但AI會連同關聯電郵一併刪除。高風險操作時,她建議設定AI每次執行前必須先向用戶確認。
她強調,無論是傳統AI或代理式AI,只要涉及收集、使用個人資料,香港現行《個人資料(私隱)條例》仍然完全適用。同時,公署2023年已推出《使用AI聊天機械人「自保」十招》,並發出《僱員使用生成式AI的指引清單》,以及《人工智能(AI):個人資料保障模範框架》。公署亦已審視接近90間機構使用AI的情況,並舉辦多場企業內部培訓及推廣活動。