大公報綜合路透社、美聯社報道:美國國防部5日正式將美國人工智能(AI)公司Anthropic列為「供應鏈風險」企業,禁止政府承包商在執行美國軍事任務時使用Anthropic的相關技術,包括旗下的AI模型Claude。
這是美國首次將本土企業評定為「供應鏈風險」,即政府認為Anthropic不夠安全,無法再作為其承包商。Anthropic行政總裁阿莫戴透露,前一日已收到五角大樓的相關通知。據悉,相關限制僅適用於在國防部合同中使用Anthropic技術的情況,企業在其他與五角大樓無關的項目中,仍可繼續使用Claude模型。阿莫戴強調,國防部此舉「在法律上不成立」,「我們別無選擇,只能在法庭上提出質疑。」
Anthropic被列入風險名單源於雙方長達數月的爭議。美國國防部此前要求AI公司撤除安全護欄,Anthropic稱公司政策明確禁止將Claude用於武器開發和監控等範疇,拒絕取消Claude模型的安全護欄,導致其與五角大樓談判陷入僵局。
美國總統特朗普於2月27日指示所有聯邦機構停止使用Antrhopic的技術。近日曝光的一份Anthropic內部備忘錄顯示,阿莫戴稱,國防部官員不喜歡該公司部分原因是「我們沒有吹捧特朗普」。據稱,Anthropic內部認為,阿莫戴既未向特朗普捐贈大筆資金,也未公開讚揚他,因此遭到特朗普政府中某些人的排斥。
不過,美軍在2月28日對伊朗發動襲擊時,依然繼續使用Claude模型。微軟3月5日表示,繼續在給客戶提供的產品中使用Anthropic的技術,但不包括美國國防部。
(來源:大公報A23:國際 2026/03/07)
編輯:岸藍
關鍵詞:人工智能AI
評論
查看更多評論>>
加載中……
