AI「產生幻覺」 致假消息氾濫
【大公報訊】綜合《衛報》、美聯社、彭博社報道:人工智能(AI)全球爆紅,英國劍橋詞典15日將「Hallucinate」,即「產生幻覺」一詞評選為本年年度詞彙。劍橋詞典稱,隨着AI的發展,該詞於今年獲得了新的含義:AI在處理信息時亦可能會「產生幻覺」,從而「編造」出一系列看似具有說服力的錯誤信息,恐導致假消息氾濫。
「Hallucinate」的原始詞義是「看到、聽到、感覺到或聞到一些不存在的東西」的體驗,通常是由於健康狀況或服用藥物所產生。該詞今年獲得了全新的含義,即指代ChatGPT等AI系統產生「幻覺」,生成虛假信息的情況。
劍橋詞典在其官網稱,之所以選擇「產生幻覺」一詞作為年度詞彙,是因為新含義「觸及了人們談論AI的核心」。ChatGPT等生成式AI,是一種「強大」的工具,但「遠不完美」,人們仍在學習如何安全有效地與AI互動,而這意味着必須要先意識到AI的潛在優勢和其當前的弱點。
另外,劍橋詞典亦正式收錄了一系列與AI相關的詞彙條目進入詞典,包括大型語言模型(LLM)、生成式AI(GenAI)和GPT(生成式預先訓練轉換器的縮寫)等。
ChatGPT現「幻覺」幾率約3%
ChatGPT等聊天機器人爆紅,但不斷被外界發現,其實AI系統也會「一本正經」胡說八道,可能會對原文增刪、竄改,甚至杜撰內容,這一過程通常被稱為AI「幻覺」。例如,今年2月,谷歌發布AI聊天機器人Bard之際,其宣傳視頻中言之鑿鑿地聲稱,韋布望遠鏡拍攝了首張太陽系外行星的照片。然而該說法實際是錯誤的,第一批系外行星的照片實際是由歐洲南方天文台的甚大望遠鏡(VLT)所拍攝。這個杜撰錯誤,一度讓谷歌市值蒸發1000億美元。
據統計,目前流行的AI模型,都有可能產生「幻覺」,其中ChatGPT產生「幻覺」的幾率約為3%,而谷歌的用於社交平台AI的Palm-Chat模型則擁有高達27.2%的發生AI「幻覺」幾率,為主要AI模型中最差。
需要批判性思維
目前,AI產生「幻覺」的原因目前仍未清楚,因為其背後的大型語言模型擁有海量數據,訓練過程極其複雜,難以確定具體的出錯環節。有研究人員認為,最主要的問題出在訓練AI算法的數據質量上。過時、低質量的訓練數據在訓練過程中,可能誤導AI模型。
隨着越來越多的領域都開始在工作中使用AI,這可能會促進假信息的傳播。專家指出,當人們利用AI技術尋找可能影響其健康、投票意向和其他潛在敏感話題的答案時,AI「幻覺」更會帶來風險。
有人已經成為AI「幻覺」的受害者。今年4月,美國喬治華盛頓大學法學院教授特利出現在性騷擾學生的教授名單中,是ChatGPT給出杜撰的答案造成。澳洲赫本郡郡長胡德被ChatGPT誣賴他曾因賄賂而坐牢,他一度提出要控告OpenAI誹謗。
另外,AI工具越來越強大,專業人士在疏忽下,也會對AI生成的假信息難辨真假。5月,美國紐約一名執業30年的律師施瓦茨被發現法庭文件中援引的多宗案例和文章內容均為虛假。施瓦茨承認自己曾使用ChatGPT準備材料,並稱曾向AI多次確認信息的真實性;本月,巴西的一名法官更因在使用AI撰寫裁決時,在其中引用了具有錯誤細節的法庭案例,而被當局調查。
劍橋詞典表示,AI「幻覺」的存在提醒着人們,人類仍然需要將批判性思維,運用到AI工具的使用中,人類自身的專業知識「比以往任何時候都更加重要」。