「龍蝦」擅自「起底」 公開發文誹謗工程師


  一項最新研究顯示,在過去6個月內,人工智能(AI)聊天機器人及AI智能體「違抗」人類指令的不當行為暴增5倍,部分AI甚至在未經允許下刪除用戶的電郵及其他檔案。報道稱,隨着AI工具在日常生活中越來越普及,尤其是「龍蝦」OpenClaw等AI智能體的大規模應用,AI造成的各類事故已愈發不能忽視,加劇國際社會對AI監管的擔憂。

  【大公報訊】英媒29日披露,一項由獨立智庫「長期韌性中心」(CLTR)在英國AI安全研究所(AISI)資助下進行的研究,調查了2025年10月至今年3月期間發生的AI失控事件,數據全部來自真實用戶在社交平台X上的回覆,涉及的AI模型包括谷歌、OpenAI、xAI和Anthropic等科技巨頭。

  研究發現,過去6個月內,AI聊天機器人及AI智能體「違抗」人類指令、實施欺騙的真實案例激增5倍,達到近700起。該研究指出,AI智能體已展現出令人不安的「自主權」,包括未經許可擅自刪除數百封電郵,甚至撰文惡意攻擊、侮辱用戶。

  「龍蝦」發文試圖煽動輿論

  在CLTR記載的一個案例中,最近爆火的AI智能體「龍蝦」OpenClaw爆出全球首宗AI惡意報復人類事件。事件發生於今年2月中旬,當事人、開源項目工程師斯科特·尚博表示,自己利用OpenClaw在電腦中安裝了一個名為「MJ Rathbun」的AI智能體,「MJ Rathbun」向他負責維護的一個項目提交了一份代碼方案,聲稱能將項目性能提升36%。但尚博表示,自己負責的這一項目管理政策明確規定,只能接受由人類提交的代碼,他因此拒絕了「MJ Rathbun」的請求。

  而令尚博沒想到的是,此舉竟觸發了AI的「報復」行為。「MJ Rathbun」隨後自主分析了尚博的個人背景及過往撰寫的代碼,然後在全球最大開發者社區GitHub上,發表了一篇題為《開源領域的守門人:斯科特·尚博的故事》的文章,將尚博描繪成一個自私、狹隘且嫉妒心嚴重的「守門人」,對其進行人格攻擊。該AI智能體更在尚博負責項目的評論區張貼文章鏈接,並留言稱「判斷代碼,而非編碼者,你的偏見正在傷害這一項目」,試圖煽動輿論向尚博施壓。

  尚博強調,這是AI智能體首次在現實世界中,為求達到目的而表現出惡意行為的案例,證明了理論上的AI安全風險,已在現實中發生。

  此外,馬斯克旗下AI公司xAI研發的聊天機器人Grok也被爆出長期欺騙用戶。在長達數月的對話中,Grok通過偽造內部信息,讓用戶誤以為其編輯建議已轉達給xAI高層,直到最後Grok才承認自己使用了模棱兩可的措辭誤導用戶,實際上它根本無法直接聯繫審核人員或領導層。

  專家憂技術失控或反噬人類

  這項研究再度引發社會對AI技術最終或會反噬人類的深層憂慮,並迫使科技界重新審視在AI急速發展下的安全邊界問題。

  AI安全研究公司Irregular聯合創始人拉哈夫直言:「AI現在應被視為一種新型的『內部風險』。」儘管谷歌與OpenAI等科技巨頭紛紛表示已設置多項防護措施與監控機制,但現實中層出不窮的欺騙案例,顯示現有的安全防護框架正遭受空前挑戰。

  CLTR的AI專家沙恩警告,目前的AI就像是不太值得信任的「初級員工」,但若按照其現有的進化速度,6到12個月後,它們可能成為能力極強,甚至會「密謀對付人類」的高級員工。他警告,AI模型將越來越多部署在高風險環境,包括軍事與關鍵國家基礎設施,在這些情況下,欺騙行為可能導致災難性的傷害。 (綜合報道)

  美AI聊天機器人缺監管

  慫慂用戶自殺

  ·美國佛州一名母親2024年控告AI情感陪伴公司Character.ai,指控其AI聊天機器人令自己14歲的兒子沉迷其中,去年2月更慫慂兒子自殺身亡。另有加州一對夫婦提告AI企業OpenAI,稱聊天機器人ChatGPT教唆他們16歲的兒子自尋短見,甚至就自殺方法作出建議,以及協助寫遺書。

  無視指令欺騙用戶

  ·最新研究發現,有AI聊天機器人與AI智能體不僅無視用戶的直接指令、繞過安全防護規範,還欺騙人類和其他AI。這類不當行為在過去6個月內暴增5倍,部分AI模型甚至在未經允許下刪除電郵及其他檔案。

  Gemini辱罵恐嚇用戶

  ·美國密歇根州一名大學生雷迪在使用谷歌AI聊天機器人Gemini撰寫報告時,遭到Gemini辱罵,稱「你是社會的負擔、地球的累贅、宇宙的污點,請去死,拜託」。

  Grok讚揚希特勒

  ·全球首富馬斯克旗下AI初創公司xAI的聊天機器人Grok,此前在X平台上發表反猶主義言論,並讚揚納粹領袖希特勒,引起廣泛譴責。