【話你知】AI模型愈複雜資料愈多 全球用電量龐大

  香港文匯報訊 發展迅速的人工智能(AI)技術,需要消耗非常多的電力。AI專家指出,訓練AI所需的大型語言模型(LLM)會儲存規模龐大的各類資料,AI模型愈複雜、資料儲備愈多、使用者向AI模型發出的請求量愈大,AI技術所需的電力就愈多。預計未來數年,全球AI及互聯網技術的全年用電量,可以與德國等發達工業國家全年用電量看齊。

  每次推理應用GPU耗電

  《福布斯》雜誌指出,在訓練AI時,AI模型會收集分析海量資料,訓練一個AI模型短則需時數分鐘,長則需時數天甚至數月。在此期間,用於處理大量資料的芯片圓形處理器(GPU)會24小時全天候運作,消耗大量能源。在回答使用者的問題時,AI模型要分析大量數據「理解」問題,然後「思考」答案,每次推理都需要應用GPU的處理能力,消耗一定電量。

  科技資訊網站The Verge舉例稱,以AI聊天機械人「ChatGPT」的初版「GPT-3」為例,訓練其所需的電力約為1,300兆瓦時(MWh),相當於130個美國家庭全年消耗的電力。按照串流媒體Netflix播放約1小時影片,需要0.8千瓦時(kWh)電力計算,觀看162.5萬個小時的影片消耗的電能,才與訓練GPT-3相若。至於升級版的「GPT-4」,預計消耗的電力更為驚人。

  國際能源署最近報告顯示,全球互聯網運作所需的互聯網數據中心(IDC),2022年合共使用約460太瓦時(TWh)電能。但到2026年,這一數字可能增至620至1,050太瓦時之間,分別相當於瑞典與德國全年的電力需求。

  AI初創企業Hugging Face研究員盧西奧尼稱,生成式AI技術革新「帶來了我們完全不知道的巨額成本」。盧西奧尼希望企業為AI模型引入能源消耗評級,方便使用者進行比較。