螞蟻張天翼:AI技術越提升 錯誤越難發現

香港文匯報訊(記者 黎梓田)人工智能(AI)技術近年呈現爆發式發展,其在企業及人們生活中的應用也越來越廣泛,但其安全及風險仍是關注重點。螞蟻國際風險管理部總經理張天翼昨在全球人工智能行動峰會上表示,人工智能風險一般主要包括三類:內生安全、服務安全和衍生安全。關於人工智能的內生安全,大家可能比較熟悉的問題包括其價值觀問題和幻覺問題。過去一兩年,主要的大模型開發公司都在集中力量解決這類問題,特別是幻覺問題。但隨着基於檢索增強生成等更多檢索與推理方式的融合,發現人工智能的幻覺問題並未徹底消失,反而可能變得更加隱蔽。
他舉一個在春節期間使用某大模型的例子,「當時我用它為親戚家的小孩取名字,它非常快速地給出了許多引經據典的建議,其中三個名字是真的,兩個是假的。與幾年前大模型剛出現時的情況不同,以前的幻覺問題一眼就能識破,比如它聲稱某詩是杜甫或李白寫的,這是明顯錯誤。但現在它使用非常冷門的詩人和作品,編造了幾句詩,還保持了風格的一致性,並且同時進行連鎖推理和自證。如果是顯而易見的錯誤,它會在自證過程中被排除出去。因此,如果說幾年前人工智能的幻覺顯得笨拙,現在它的幻覺則變得更加狡猾。」
第二類是與智能體相關的風險。隨着人工智能的湧現及躍升,它被應用於越來越多的場合。但在此過程中,也出現了更多預料中或預料外的風險。其中隱私是大家非常關注的問題,既看到在訓練過程中隱私數據可能被提取出來的情況,也發現了有針對性的攻擊。
生成技術衍生欺詐危機
第三部分是衍生安全,即利用生成式人工智能(AIGC)的能力,生成出大家已廣泛看到的圖像、視頻生成等功能。在這方面,已在反欺詐領域看到了非常現實的危害。例如之前擔心的問題—比如批量生成偽造的身份證,用來篡改或冒認身份—在金融實踐中已經發生了大量案例。這意味着人工智能門檻的降低、成本的降低及其可達性的增強,確實大大增加了這些風險。
「以AI對抗AI」提升防禦
張天翼又表示,螞蟻集團過去幾年內開發的,針對這些人工智能應用安全問題的應對措施,總體來看,集團從攻擊與防禦兩個方面進行了強化。首先,所謂「攻擊」是指希望模擬人工智能,通過「以AI對抗AI」(AI against AI)的思路,提升其評測能力,發現可能的風險所在。然後利用人工智能能力提升其自身的防禦技術,包括上述提到的內生安全、衍生安全和服務安全。