財經觀察/防黑客保私隱成考驗 人類輔助排除風險\李耀華
人工智能(AI)發展至此,仍主要依靠人類結合機器為操作模式,但隨着AI代理(AI Agent)日趨普及,由軟件或機器全自動化為人類解決各種問題已非不可能。然而,由於這種新的AI形式仍然處於初步階段,目前還需要面對技術、私隱等多項挑戰,故人類適度的輔助仍有必要。
AI代理是一個自動化的智能系統,在沒有人類輔助下進行各種特別的工作,各大機構開始使用AI代理,目標是提高經營效率。
難以自主處理複雜情境
風險方面,傳統生成式AI主要在資料輸入和處理、模型輸出時容易出現差錯。而AI代理所遇到的風險或遠超這些層面,因為AI代理自動化程度較大,而且亦較複雜,很多時即使人類操作員亦難分辨出錯處,而這種盲點,往往會構成重大的安全隱患。
而在眾多危機中,最需要注意的是在AI操作時資料或會外洩和被滲透,同時,可能會遭到未經授權或是惡意活動入侵,包括受到黑客攻擊等。若要解決這些問題,有關機構必須嚴格保障資料的私隱要求,並需要定下措施,改善資料的安全性,防止輕易向外洩露。又例如在某些情況下,AI代理可能會產生出不公平、偏頗及失準的結果,唯有靠人類適度的檢視,才可以確保客戶從AI代理得到有用和正確的解決方案。另外,AI代理無節制地消耗系統資源(不論惡意與否)將會令資源被過度使用,這也是值得關注的危機。
而且,AI代理只是在去年底開始才受人注目,技術質素仍有待改善。AI代理目前所遇到的挑戰,比想像中要大得多。The WebArena leaderboard統計多個AI大型語言模型的表現成效,發現即使是表現最佳的AI模型,其成功達成任務的機會率也只有35.8%。
上述種種由AI代理產生的問題,反映全自動化操作的模式在現階段仍有不少缺點,如要令這種技術真正可以協助人類進行各種任務,適度的人類輔助還是有必要。