議會內外/完善法律機制規範監管AI應用\容海恩

  人工智能(AI)已成為全球科技發展的產業革命引擎,中國作為全球第二大經濟體,也將AI視為推動國家創新能力和經濟轉型升級的關鍵領域之一,制定了包括AI產業發展規劃、創新發展試點和產業創新中心等計劃,以全面推進AI發展。香港是國家科技力量重要組成部分,應當積極與國家發展戰略保持一致。筆者認為,香港可在不同領域配合國家AI發展策略;另一方面需謹慎處理本地應用AI技術所引發的潛在法律與倫理問題。面對這些挑戰,香港必須採取前瞻性的管理策略,確保在推動技術創新的同時,也在維護社會公正與倫理標準上發揮重要作用。

  潛在風險相繼浮現

  香港在世界AI發展浪潮中,正積極配合國家的AI發展藍圖。特區政府設立了創新及科技基金,促進人工智能技術在香港的應用和研究,並支持及鼓勵香港和內地的大學、科研機構和科技企業加強科研合作。此外,多家大學、公私營機構也積極推動AI發展,如香港科學園建立的「InnoHK研發平台」,聚焦醫療科技和人工智能及機械人科技,並且為香港的科技發展做出貢獻。同時,不少本地科技公司正努力建設香港的科技發展,亦積極開發AI技術,並且在AI領域的投資也在逐年增加。

  應用方面,香港可以借鑒並學習內地在AI發展方面的豐碩成果。內地的AI飛速發展,其應用範疇已經遍布交通運輸、醫療、金融服務、教育和農業等多個關鍵領域。以交通運輸為例,內地的自動駕駛技術已經取得顯著進展,多家企業開始在實際道路條件下進行自動駕駛測試,這為香港的智能交通系統提供了可供借鑒的經驗和技術基礎。在醫療領域,內地利用AI進行疾病診斷和醫學影像分析的突破,為香港提供了優化醫療服務、提高診斷準確性和效率的示範。香港可以在這些領域中尋找合作機會,引入先進的AI技術和應用,同時培養本地的AI人才,推動產業升級和經濟發展,以此與國家發展戰略保持一致,以及在全球AI競爭中佔據有利的位置。

  隨着AI快速發展,一些潛在的法律和倫理問題亦相繼浮現。例如AI的自主學習能力可能導致算法偏見和歧視,這需要合理的監管和約束;另外,AI可能導致減少就業崗位和人類勞動價值的轉變,以及涉及資料私隱和安全的問題,這些潛在風險均需要相應的法律保護機制。

  很多國家均有相應的約章或法律來規範AI使用和發展,例如歐盟通過《通用數據保護條例》(General Data Protection Regulation,GDPR)來保護個人數據私隱和安全。它強調個人數據的合法性、透明度和用戶控制權,並對數據處理者和數據控制者有嚴格的義務和責任要求。此外,也制定《人工智能法規》(Artificial Intelligence Act,AI Act)來規範和監管AI使用。加拿大則通過《個人資訊保護和電子文件法》(Personal Information Protection and Electronic Documents Act,PIPEDA)來保護個人私隱和數據安全。英國目前雖然沒有專門針對AI的法律,但他們提倡通過與AI技術公司合作,共同發現問題並分享發現,以推動AI的監管和治理。可見重視個人私隱和數據保護,並制定相應法律和規定,是確保AI健康發展的重要前提。

  借鑒國內外立法經驗

  AI風險是國際性的,在香港引發的法律和倫理問題與其他國家和地區相似,所以可參考其訂立原則和相應的政策來解決。在就業和社會影響方面,香港需要關注AI對就業市場和社會結構的影響,包括監測自動化帶來的工作流失情況,並制定相應的政策和措施來應對,如培訓和轉行支持。在私隱保護方面則應該加強個人私隱和數據保護的法律框架,確保個人數據的合法使用和妥善管理。這包括限制數據收集、明確告知數據使用目的、確保數據安全等措施。

  總括而言,筆者認為,在AI大時代背景下,香港要積極融入國家發展大局,對接國家科技發展戰略領域。AI發展一日千里,同時衍生各種挑戰,此時便需要制定新的約章和法律,以保障個人私隱和數據安全,建議特區政府借鑒內地及其他國家的經驗,結合香港的獨特優勢和國家的戰略發展規劃,力爭在全球科技競爭的舞台上佔據有利地位,充分展現香港與內地協同發展的獨特優勢。

  新民黨副主席、立法會議員、執業大律師