法政新思/善用普通法制度優勢 建構人工智能監管框架\鄧 凱
就在剛剛過去的6月,香港個人資料私隱專員公署(以下簡稱「私隱公署」)發布了《人工智能(AI):個人資料保障模範框架》(以下簡稱《模範框架》)。而在更早前的2月,私隱公署則完成了歷時近半年的人工智能合規檢查,對相關機構在部署人工智能系統提高業務效率時的風險和影響進行評估。
香港作為獨特的法律管轄區,或許因其技術市場規模相對較小,而難以在人工智能法律監管模式上引發諸如歐盟法案那般的關注度,但不可否認,香港的人工智能治理體系頗具特色,筆者願稱之為「軟法(soft law)治理示範」。結合系列專門性文件、核心思路以及底線義務等,本文將對香港的人工智能監管框架做出簡要評述。
香港的人工智能治理之所以是「軟法」式的,原因首先在於,自2018年以來,香港發布的多份數據科技類指導文件均不具有法律意義上的剛性約束力。2018年10月,私隱公署發表《中國香港的(數據)道德問責框架》,建議業界在運用數據科技時,應恪守「尊重」、「互惠」以及「公平」這三項數據管理價值。據此進一步衍生,私隱公署於2021年9月專門針對人工智能行業發布《開發及使用人工智能道德標準指引》,目的是協助產業持份者在遵從《個人資料(私隱)條例》相關規定下建立合乎七項道德標準的人工智能,包括:問責、人為監督、透明度與可解釋性、數據私隱、公平、有益,以及可靠、穩健及安全。該指引同時附設「自我評估核對清單」以輔助當事方自我判斷上述道德標準的採納情況。
平衡新科技領域監管與發展
除私隱公署之外,本港另一個重要的科技部門亦即合併為「數字政策辦公室」前的「政府資訊科技總監辦公室」,則在2023年8月制訂了一套更為完整的《人工智能道德框架》,旨在把人工智能的技術要求、應用標準等規範再度化約為成體系的道德價值與倫理原則。這些要素被主張嵌入人工智能的管治架構並貫穿整個生命周期,以及透過「應用影響評估」的手段來增強該框架的指引性和實操性。在細分領域中,香港金管局則在2019年底提出《應用人工智能的高層次原則》,將相關道德原則拆解細化為能在金融場景中實操的九項具體規定。
綜觀這一系列文件集合,多冠以「框架」、「指引」之名,從而首先示明其性質更接近於相對柔性的行政指導,政府的既定偏好與價值立場並非以強制干預及法定規限的方式做出。其次從表達上看,數據道德、合規倫理等宣言式美德或原則性道義構成了這些指導文件的主要敘述,「法化」(Juridification)規則及問責(Accountability)語言的弱化也是軟法的典型特徵所在。此外,企業、用戶等利益攸關方的角色訂明並不訴諸於「命令─控制」關係,而是平等合作者,例如《模範框架》中就設計了磋商交流、建立信任、形塑共識等措施。
作為一種現代規制工具,採用軟法治理的積極意義明顯。例如,它通常被視作某種既自由但又不乏公共理性的制度形態,這種較為平衡的自由式家長主義路徑自帶先驗的道德正當性。實施軟法所需的開放、協商、溝通等程序性價值能夠體現更多的「公共善」,進而有助於實現被規範對象的知情認同、自我約束,以及合作遵從。此外,軟法本身可以無意間改變環境或背景,並突出行業最佳實踐或慣例的顯著性,由此保持監管秩序的前後一致和結果可預測。
在普遍法理之外,軟法構建之於香港人工智能發展更是另有深意。香港長久以來都在推動創科事業上躊躇滿志,然而命運的齒輪卻多次空轉。從數碼港計劃開始,香港陸續錯過了移動互聯網、大數據、人工智能等產業風口,直至現如今迎來了新一輪由大語言模型引領的生成式人工智能技術浪潮。如何最大程度把握此次科技機遇,無疑也考驗着特區政府及相關治理者的施政智慧,也正是如此,軟法治理模式因其開放寬鬆與韌性包容而獲得了行業監管青睞。誠如前述金管局在《應用人工智能高層次原則》中就明確表示,過分規限或硬性的規定,或會窒礙人工智能相關科技向前發展。
務實地選擇軟法治理,充分說明監管者已然清醒地認識到,推動香港人工智能有所作為的非對稱性優勢,並不在於規模市場及其需求,而是如何發展出一系列更符合自身科技產業發展利益的「錯位」監管思路與創新治理方法。更進一步,香港是否可利用其獨有的普通法思維體系來創製規則也值得想像。譬如對數據處理的必要性原則進行適度擴張解釋,以滿足人工智能合理利用個人信息的客觀技術需求;延伸至知識產權領域,相關的普通法法律續造也應包括承認生成式人工智能對著作權作品具有寬泛合理使用的正當性,亦或是在特定個案情境中探索豁免大模型訓練使用的版權侵權責任,等等。總之,以普通法因應技術和產業發展可視作香港向其他法域示範治理創新的有效選項。
為人工智能治理起示範作用
人是目的,而科技僅僅是手段,發展人工智能要始終堅持以人為本。儘管軟法治理意味着公共政策試圖以某種對產業包容,對技術「忍讓」的審慎、謙抑的姿態亮相,但絕不應偏廢、讓渡人本關照,根植人對機器的控制以及技術造福人類始終是人工智能治理的底線義務,也是應對人工智能信任危機的樸素方法。對此,《模範框架》借鑒了歐盟人工智能法中的風險分級分類模式,採取「風險為本」的管理方式,即視乎系統風險程度高低而採取相應的規制措施,其中也包括決定人為介入監督的程度。例如,針對那些可能對個體或群體造成嚴重及長期傷害並影響人類基本權利和自由(財務損失、身體傷害、歧視、信息自主權喪失等)的高風險系統,應適用「人在環中」(human-in-the-loop)的監管法則,旨在確保人類在決策中保留必要控制與主導,以防止自動化技術的出錯或不當決定。
科技發展在指數級加速,要不要等一等人類社會文明的發展?答案是肯定的,我們顯然已無法對人工智能加劇失業、挑戰社會公平和利益分配等未解難題假裝視而不見。就在本文撰寫之時,「港版ChatGPT」悄然而至,並計劃在年內推廣至特區政府所有部門,既展現了香港創科實力,也是因地制宜發展新質生產力好例證。相信在人機關係的規則維度上,面對全球性的人工智能治理赤字,香港亦能繼續完善軟法框架並創造示範,再次彰顯符合自身稟賦的制度競爭力。
香港城市大學法律學院公法與人權論壇研究員、法學博士