HKGAI研ClawNet 人管「龍蝦」

  訂責任框架 運作可控可追溯可問責

  香港生成式人工智能研發中心(HKGAI)昨日舉行傳媒午宴,中心主任、香港科技大學首席副校長郭毅可介紹說,目前全球掀起OpenClaw「龍蝦」熱潮,但同時引起數據安全風險,其團隊正研究人機共生智能體研發項目ClawNet,目標是將AI「網住」,使其在社會規範內可控、可追溯、可問責地運作,並由人類去做最終決策,並組成「龍蝦」網絡,讓「龍蝦」去協助人類,最終建構安全、可管理的「AI智能體網絡平台」,打造真正的「人與智能體共生網絡」。

  近期被稱為「龍蝦」的開源人工智能體OpenClaw惹起熱議,郭毅可提醒指,目前主流的AI助手多屬於個人工具,無明確的身份,涉及的運算過程欠缺透明度,執行權限又太寬闊,若出現錯誤操作甚或越權之舉,難以被發現、防止,要追責更是困難重重。

  使用者作最後決策

  郭毅可表示,HKGAI團隊正積極研究ClawNet人機共生責任框架,強調「三位一體、人蝦共治」的概念,所謂「三位一體」是指人、代理及網絡。「人」代表個人或組織的身份,「代理」或「蝦」(AI Agent)負責在授權範圍內自主執行任務,而「網絡」則有約束和協同的作用。在這框架下,人類可以讓AI在特定範圍內完成複雜任務,規範AI「做被允許的事」,形成協作與治理並重的網絡架構。

  當中,AI代理需有明確的數位身份方可獲得授權,授權機制涉及職務和權限,每項行動均有追溯渠道,有跡可尋。HKGAI博士後研究員張永崗以商務場景作例子表示,負責人若要上架商品,只需向自己的「龍蝦」交代目標與授權範圍,智能體便可按任務需要聯絡物流、製造商及設計團隊,進行協調、討論與資料整合,當流程觸及關鍵分歧時,智能體會把需要拍板的決策點清楚列出,交由使用者作最後裁決。他指出,ClawNet的核心不是單純追求省時間,更重要在於讓使用者看得見、管得住。

  郭毅可強調,人機共生應該建立在嚴格的責任契約之上,ClawNet不會把一切交由「龍蝦」管理,而是由人去管理「龍蝦」,先建立由智能體組成、可治理的網絡,再由網絡協助人完成跨部門、跨角色的協作與執行,希望推動「人專注創新、AI負責執行」。