你或許每天都在使用 ChatGPT、Google、YouTube 或各種 AI 工具,但你可曾想過,這些「雲端智慧」其實並非無形?每一次看似輕巧的 AI 對話,背後都需要龐大的伺服器運算與能源支撐。根據多項研究顯示——一次 ChatGPT 查詢的能源消耗,約為 Google 搜尋的十倍。這不僅令人驚訝,也揭示了人工智能背後的巨大能源足跡。
為何 AI 這麼耗電?

傳統的搜尋引擎主要依靠關鍵字比對與索引資料,運算量相對有限;而 ChatGPT 這類大型語言模型(LLM),則需要同時啟動數以千計的 GPU(圖形處理器)進行即時推理。當你輸入一句問題時,模型會同時進行數億次數學運算,從龐大的參數資料庫中「預測」出最合適的回應。這種過程遠比搜尋網頁複雜得多,也因此更耗能。

麻省理工學院(MIT)的能源研究員估算,大型 AI 模型每生成 1000 次回應,可能消耗相當於一部手機充滿 16,000 次的電量。而且伺服器必須長期保持冷卻,以防止 GPU 過熱,這又進一步增加了電力需求。
AI 的碳足跡有多大?

一項由加州大學伯克利分校與 Google 聯合發表的報告指出,訓練一個像 ChatGPT-3 規模的語言模型,其碳排放量約等於一輛汽車行駛 70 萬公里。這些數據讓人意識到,人工智能雖是科技進步的象徵,但同時也是能源消耗的新巨頭。然而,科技界亦在積極改善這一問題。例如,微軟與 OpenAI 均已宣布投資再生能源數據中心,嘗試以太陽能、風能取代傳統燃煤電力,以減少 AI 的「環境代價」。
未來的方向:讓智慧更「綠」

為了讓人工智能的發展更具永續性,研究人員正開發更節能的模型架構與晶片設計。Google 的 TPU(Tensor Processing Unit)及 NVIDIA 的低功耗 GPU,便是為降低 AI 運算能耗而誕生的技術創新。此外,AI 平台亦開始引入「智慧運算分配」機制,只有在必要時才全力啟動運算資源,藉此減少無謂耗能。