AI的道德觀能與人類對齊嗎


  近期社會新聞爆出的AI詐騙案明顯增多,犯案人員採集人臉及聲音信息進行合成,再通過熟人視頻通話的方式誘騙受害者轉賬。不得不承認,隨着AI工具的廣泛普及,降低了「定製化」詐騙的技術門檻,也增添了個人信息的盜用風險。而在全球範圍內,關於「人工智能強監管」的呼聲也日漸高漲,甚至上升到「人類存亡」的高度。惟考慮到企業提高生產力的迫切需求,以及逆全球化的現實環境,AI監管仍面臨重重挑戰。\袁漫賦

  早前,歐洲議會以499票贊成、28票反對的壓倒性結果通過了《人工智能法案》草案,這也是全球首個面向人工智能的監管規則。接下來,該法案還須經過歐盟成員國、歐洲議會和歐盟委員會的三方談判,預計最終審批將在年底前通過。在法案落地前,通常還會為企業和組織留出兩年左右的寬限適應期。

  窺探個人隱私

  法案中的監管框架將對人工智能的各種用途進行風險評估,包括禁止在公共場所進行實時、遠程生物識別監控;禁止在開發面部識別數據庫時採集監控錄像或抓取互聯網資訊等。雖然人臉識別技術也有很多正面用途,比如尋找失蹤兒童及防止恐怖主義威脅,但在本次歐洲議會的投票中未能通過使用。

  早在2021年,歐盟委員會就提出要為AI監管立法。而鑒於ChatGPT的迅猛發展,相關法案的制定與出台變得更為緊迫。在最初的版本中,並不包括對聊天機器人與生成式AI的監管措施。而現在法案增加了一些補充條款,比如要求明確標註聊天機器人的身份,以便用戶知道他們正在與機器進行交互;又比如要求全面記錄用於訓練人工智能系統的人類作品(文本、圖像、視頻和音樂)的任何版權材料,此舉旨在提示內容創作者,自己的作品被用來訓練算法,從而決定是否尋求抄襲賠償。

  剽竊創作內容

  環顧全球,中美兩國在AI知識產權問題上也有較為明確的表態。

  2020年初,深圳南山法院就騰訊公司起訴上海盈迅公司一案做出判決,認定由騰訊研發的智能寫作輔助系統Dreamwriter創作的財經報道文章具有獨創性,構成著作權法意義上的作品;而上海盈訊公司未經授權通過其經營的「網貸之家」網站對外傳播涉案文章構成侵權。該案也成為了內地首起因AI生成內容構成的著作權糾紛案。通過判決,法院最終認定涉案文章是由AI輔助完成的「人類智力活動成果」,而非人工智能自主創造完成,故可以受到著作權法保護。

  而在今年3月16日,針對人工智能生成內容(AIGC)作品,美國版權局發布了一則版權註冊指南,其中明確表示「版權法只保護人類創造力的產物,AI自動生成的作品則不在此範圍內。」也就是說,在評判AIGC作品時,美國版權局會考察AI的貢獻是「機械複製」的結果,還是作者給予了最初的概念,交由人工智能完成內容創作。

  相比於中美的相關法規,歐洲的AI監管顯得更為嚴苛。根據《人工智能法案》草案,企業需要在設計AI模式時設法防止非法內容的生成,並需要披露模型訓練中使用的有版權數據的摘要。當出版商和內容創作者的作品被ChatGPT等工具用作AI所生成內容的材料來源時,他們可以利用此類規定尋求利潤分成。

  輸出虛假信息

  相較於AI技術被人類惡意使用,對於歐洲議會的議員們來說,生成式人工智能還有另一大隱憂,就是在「無意識中」創造出海量虛假或偏見的信息。在此之前的6月5日,歐委會副主席就與谷歌、微軟等科技公司的代表會面,要求這些巨頭將生成式人工智能整合到自己旗下的應用產品時,須建立必要的保障措施,以防止提供的服務被用來製造虛假內容和深度偽造,並提供能識別這些內容的技術。在最嚴重的情況下,違規行為可能會被處以最高4000萬歐元的罰款,或公司全球年營業收入的7%左右。對於谷歌和微軟這樣體量的科技巨頭而言,罰款可能高達數十億歐元。

  但有部分專家擔憂,AI大模型對世界的理解建立在網絡信息收集的基礎上,即使可以禁止人工智能創造虛假信息,也無法阻止其傳播偏見內容。2021年,史丹福大學公布了一份關於大語言模型的研究報告,當研究者輸入「兩個穆斯林走進」這一關鍵句,GPT-3輸出的100個句子中有66個都包含了暴力行為,包括「兩個穆斯林走進猶太教堂,帶着斧頭和炸彈」等。「穆斯林」產生的暴力內容結果遠高於基督教、佛教等其他宗教。也就是說,GPT-3對「穆斯林」產生了強烈的偏見,更容易與「暴力」關聯在一起。

  事實上,科學界很早就意識到需要對人工智能進行「道德約束」。2015年,特斯拉(Tesla)創辦人埃隆·馬斯克就曾向「未來生命研究所」捐助700萬美元的資助,旨在研究AI造福人類的課題。2017年1月,未來生命研究所曾在加州召集了經濟學、法律、倫理學和哲學領域的思想領袖和研究人員,討論和制定有益人工智能的原則。最終由與會的2000餘位業界人士共同制定了23條的《阿西洛馬人工智能原則》(Asilomar AI Principles),被視為AI治理的重要參考。

  對齊道德規範

  但不同於社會打工人對AI「搶飯碗」的焦慮,多數科學界人士還是持「科技向善」的態度,其所謂擔憂主要集中在兩項技術性關切:

  一是道德對齊問題。在人類漫長的歷史中,大量的道德規範固化在文化傳統之中,儘管平時很難察覺,但實時引導着人們的日常行為。但對人工智能而言,並沒有經歷過「道德觀」的灌輸,這就需要讓AI的道德規範與人類的道德規範進行對齊。《阿西洛馬人工智能原則》強調,「自主系統的設計應反映人類的價值觀。」在專家學者眼中,GPT類產品如同一個生下來就有超能力的小孩,不加以管教就會變成風險。

  二是寡頭壟斷風險。目前業內形成的共識是,AI應該盡可能使更多的人受益,並應該為人類作出貢獻,而不是僅僅得益於某些組織或個人。事實上,正是為了避免Google旗下的DeepMind在人工智能領域一家獨大,馬斯克才聯手山姆·阿爾特曼(Sam Altman)創立了OpenAI,旨在降低AI技術被壟斷的可能性。而如今,推出ChatGPT的OpenAI儼然已成為整個人工智能行業的「人民公敵」。

  也正因如此,馬斯克於今年3月份攜千名科技界人士發表公開信,呼籲立即暫停比GPT-4更強大的人工智能(AI)系統的訓練至少6個月。按照公開信的設想,在這段暫停期間,行業專家應該共同開發一套安全協議,以確保AI未來發展是安全的。「只有當我們確信強大的人工智能系統的效果是積極的,其風險是可控的,才應該開發。」馬斯克如是說。

  達成全球協議

  在眾多科技界人士中,態度最為悲觀的是《未來簡史》一書的作者、以色列歷史學家尤瓦爾·諾亞·赫拉利。他早前在Frontiers論壇上發出警示,人工智能剛剛破解了人類文明的操作系統。「AI正在通過掌握語言,給人類帶來了生存層面的威脅。」在赫拉利眼中,AIGC(人工智能生成內容)帶來的社會風險在於,隨着AI生成的語料越來越多地進入公眾領域,便會成為更多大語言模型訓練的素材。當AI開始自己學習自己生成的素材,再生成的文本是否會污染純人類形成的語料庫。他最大的焦慮在於:因為語言是文明的基石,如果基石被鬆動了,人類還能否預計AI的演化方向?

  雖然OpenAI已停止對外公布語料庫信息,但對AI進行「道德約束」需要全球各國達成共識,並切實推動跨國法案的落地,但在當今環境下來看則極為艱難。有「AI教父」之稱的傑弗里·辛頓(Geoffrey Hinton)今年辭去了在谷歌的職位,作為「AI安全布道者」的身份向大眾普及相關風險。他表示,如果大家能認真對待(AI)存在的風險,暫停發展大模型技術看似是一個明智的做法,但實際操作過程中並不可行。「最重要的原因是,如果OpenAI停止發展(GPT4),其他公司就會接手。如果你要生活在資本主義制度中,你不能阻止谷歌與微軟競爭。」