當前位置: 華文天下 > 辟謠

破解AI耗電困局 科技巨頭「押註」核能

2024-06-26辟謠

近日,微軟創始人比爾·蓋茨透露,將繼續對美國懷俄明州「下一代」核電廠投資數十億美元。這一決策背後的原因,很大程度是由於人工智能(AI)的崛起正悄然引發一場前所未有的「電力風暴」。

國際能源署數據顯示,使用ChatGPT進行一次查詢,就需要消耗2.9瓦時的電量,相比之下,普通引擎搜尋僅需0.3瓦時。到2026年,AI和加密貨幣數據中心的年電力消耗量可能會翻一番,從2022年的460太瓦時(TWh)飆升到1000TWh以上。

AI是「能耗大王」

生成式AI模型的大部份能源消耗發生在使用之前,即訓練階段。這是深度學習模型開發的一個關鍵過程。

大多數數據中心使用圖形處理器(GPU)來訓練AI模型。GPU執行時需要大量能源,大約是傳統CPU(中央處理器)的5倍。訓練大語言模型需要數萬個GPU,它們需要晝夜不停地執行數周或數月。模型訓練完成後,需要托管和利用模型所依賴的數據。因此,數據中心的運轉「根本停不下來」。

AI的總消耗量是多少?訓練和輸入最常用的模型需要多少能源?根據美國史丹福大學最近的一份報告,谷歌的Gemini Ultra模型訓練時需要500億PetaFLOPs(每秒千萬億次浮點運算)算力。如果要用商用電腦實作這種計算能力,需要大約1016台電腦。與此相關的訓練成本為1.91億美元,主要歸因於能耗。

單個AI模型的耗電量可達數萬千瓦時。據技術咨詢公司IDC估計,ChatGPT等生成式AI模型的耗電量可能是其100倍。

除了系統本身,處理器還需要冷卻,常見的技術包括電動通風和水冷卻,這些也都需要能源。

用核能「為AI發電」

哪裏才能找到足夠的電力來滿足AI「貪婪的胃口」?當前,世界正在向凈零碳排放邁進,數據中心需要可靠、穩定的基本能源,而太陽能和風能遠遠無法滿足需求。因此,核能正在成為一個新選擇。

大型科技公司已經邁出了走向「AI+核能」時代的第一步。

據美國【華爾街日報】報道,谷歌正在考慮與小型模組化反應堆(SMR)開發商簽署電力購買協定。最近,谷歌還與微軟和紐柯鋼鐵公司簽署了一項協定,旨在加速先進清潔能源技術的發展,其中就包括「先進核能」。

微軟同樣在核能領域積極布局。去年5月,微軟與美國核聚變技術公司Helion Energy簽署了電力購買協定。Helion Energy承諾將從2028年開始向微軟提供核聚變能源。雖然這項技術目前仍處於理論階段,但微軟對其潛力充滿信心。此外,在微軟去年12月釋出的【加速實作無碳未來】簡報中,明確將先進核能、聚變能源以及傳統反應堆列為公司綠色政策的核心支柱之一。

亞馬遜也押註核能。據西班牙【國家報】報道,亞馬遜雲端運算部門AWS最近在美國購買了一個位於美國第六大核電廠附近的大型數據中心。該核電廠將按固定價格為AWS提供所需的全部能源。

質疑聲音仍存在

核能或是AI「救星」的想法,正在矽谷中流行起來。OpenAI聯合創始人山姆·奧爾特曼向Helion Energy公司投資了3.75億美元。他還兼任初創公司Oklo董事長,該公司致力於設計和制造一種新型SMR。

比爾·蓋茨是另一位對SMR感興趣的科技大亨。他的公司TerraPower正在研究一種鈉核反應堆,這種實驗性反應堆若能成功商業化,其成本有望低至核分裂的1/25。

不久前,Meta首席生成式AI工程師謝爾蓋·埃杜諾夫預測,只需兩個大型核反應堆的發電量就足以滿足2024年全球AI領域的能源需求。

核路線有前途嗎?質疑的聲音依然存在。

【國家報】報道稱,目前尚無任何SMR技術能夠立即投入實際部署,許多國家的SMR都處於原型階段。英國【新科學家】網站報道稱,先進核技術的建設前景更加不確定。盡管多家核技術初創企業獲得了科技富豪的青睞,但他們的商業營運時間表普遍指向2030年之後。到那時,全美國數據中心的電力需求預計將比2022年增加1倍甚至3倍。這些數據中心可能使用的電量相當於4000萬戶美國家庭的用電量。而Helion Energy最樂觀的估計是,到2029年,其產能僅能滿足美國4萬戶普通家庭的能源需求。(張佳欣)

來源: 科技日報