【智為未來】伺服器過度耗能 AI如何環保發展

◆ 微軟曾試驗在水下設立數據中心,發現其效率高於傳統數據中心。圖為沉入海底前的微軟伺服器。 網上圖片
◆ 微軟曾試驗在水下設立數據中心,發現其效率高於傳統數據中心。圖為沉入海底前的微軟伺服器。 網上圖片

  近年來,生成式人工智能(Generative AI)不但成為科學家在AI研究上的熱門題目,亦漸漸成為人類在生活和工作上不可或缺的工具。

  其中,大家熟悉的ChatGPT在2023年平均每月頁面瀏覽量超過10億次,而每周活躍用戶超過一億人次。但是,這類Generative AI模型的熱鬧背後卻有着鮮為人知的環境代價。根據一篇與AI環保議題相關的論文作出的估算,在微軟最先進的美國數據中心訓練大型語言模型GPT-3就足以消耗540萬公升的水。而利用ChatGPT僅是回答10個至50個簡單問題就需要「飲」500毫升的水,若以全球數億用家計算,耗水量不堪設想。

  要減低Generative AI對自然環境的破壞,我們必須了解建構及使用Generative AI模型的能源消耗問題,才能在合適的位置中減低對環境造成的傷害。

  首先,現時要訓練強大的Generative AI模型需要一個雲端服務供應商提供數萬個圖形處理器(Graphics Processing Unit,GPU)作為運算資源。而生產GPU晶片需要稀土金屬作為工業材料,在開採及提煉稀土的過程中會產生大量有害氣體和重金屬廢水,造成空氣、水質和土壤污染。

  其次,現時經開發的Generative AI模型通常為深度學習模型,且參數和訓練數據以倍數上升,需要消耗的運算資源就愈多,冷卻用水、電力供應與溫室氣體排放就更多。最後,在部署Generative AI模型於雲端伺服器作推理期間,需要用到大量電力來處理龐大的用戶量和水資源為雲端伺服器散熱。

  避免浪費算力 減輕環境破壞

  有見及此,我們作為Generative AI的使用者,亦有義務為保護地球環境出一分力。以下四點為大家在日常生活中運用Generative AI時可作出的改變。

  第一:在決定訓練模型之前,可以考慮採用深度學習解決此問題是否最佳方案,是否可以用其他能耗較少的算法或者不使用人工智能解決。

  第二:在決定從頭訓練模型之前,可以考慮是否可以在已訓練的大型模型上作特定的訓練(微調),從而減少所需的訓練時間和資源,並獲得良好的生成效果。

  第三:如一定需要訓練深度學習模型,我們可以盡量選擇能源效率較高的雲端服務供應商或使用低功耗的硬體設備,避免不必要的能源消耗。

  第四:我們應該開放已訓練模型的檔案和原始碼,供其他用家使用,以防止重複訓練模型所帶來的資源浪費及環境污染。

  最後,雖然Generative AI技術發展非常迅速,但同時亦要評估AI發展對地球環境的影響,減低AI開發對大自然的破壞,使AI更符合可持續發展原則。

  ◆ 中大賽馬會「智」為未來計劃 https://cuhkjc-aiforfuture.hk/

  由香港賽馬會慈善信託基金捐助,香港中文大學工程學院及教育學院聯合主辦,旨在透過建構可持續的AI教育生態系統將AI帶入主流教育。通過獨有且內容全面的AI課程、創新AI學習套件、建立教師網絡並提供AI教學增值,計劃將為香港的科技教育寫下新一頁。