當前位置: 華文天下 > 辟謠

AI用電量極速攀升引熱議,會導致能源短缺嗎?

2024-03-25辟謠

中新網3月24日電(中新財經記者 吳濤)隨著人工智能的發展,其用電量急速上升問題正在引發全球警惕,以後會發生「電荒」嗎?能耗問題會不會成為AI發展的「絆腳石」?

節節攀升,AI成為「電老虎」?

當前,人工智能技術快速發展,芯片需求急劇增加,進而帶動電力需求激增。公開數據顯示,全球數據中心市場的耗電量已經從十年前的100億瓦增加到如今的1000億瓦水平。

資料圖:數據中心。中新社記者 李雋 攝

據環球時報援引【紐約客】雜誌報道,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用於處理約2億個使用者請求,相當於美國家庭每天用電量的1.7萬多倍。

近期,特斯拉創始人馬斯克公開表態稱未來兩年人工智能行業將由「缺矽」變為「缺電」。在今年初,OpenAI的創始人山姆·柯曼也坦言,我們確實需要比我們之前想象的更多的能源,這會迫使我們更多地投資於能夠提供這種能源的技術。

根據美國機構Uptime Institute的預測,到2025年,人工智能業務在全球數據中心用電量中的占比將從2%增加到10%。

國金證券研報指出,隨著模型叠代、參數量的擴大,以及日活人數的擴大,相關算力需求將成倍增加。

中國科學技術資訊研究所人工智能中心副主任李修全接受中新財經采訪時稱,近年來,人工智能大模型規模、數量都在高速增長,也帶來對能源需求的快速增加。盡管短期內還不會很快出現「缺電」等問題,但未來大規模智能化時代來臨後的能源需求激增不容忽視。

制約AI發展?能源問題受重視

種種跡象顯示,AI的用電量可能超乎想象,這直接關系到AI行業是否能順利發展。李修全認為,智能化科技革命浪潮己勢不可擋,能源問題是必須同步應對的關鍵問題。

這一問題越發引起重視,據法新社報道,與傳統電腦相比,人工智能運算能耗高、能效低並因此受到詬病。在近日舉行的輝達GTC大會上,能耗問題也被提及。

資料圖。陳增赟 攝

波士頓咨詢集團曾釋出報告稱,到2030年底,僅美國數據中心的用電量預計就將是2022年的三倍。這一增幅主要由AI模型訓練和服務更高頻的AI查詢兩項關鍵需求因素驅動。

中國信通院3月15日釋出的【綠色算力技術創新研究報告(2024年)】指出,中國算力總規模近五年年均增速近30%。隨著中國算力產業總體規模快速增長,以數據中心為代表的算力基礎設施整體能耗和碳排放問題越發突出,政策開始關註用能環節綠色。

如何應對?提升能效比或是關鍵

發展AI離不開算力。作為AI「軍火商」,輝達已在考慮能耗問題。近日,其釋出的新一代AI芯片,據稱能耗比上一代有所降低。

輝達CEO黃仁勛舉例,使用8000枚其第一代AI芯片訓練聊天機器人ChatGPT三個月,將耗能15兆瓦,而使用新一代芯片在同樣時長內執行同樣任務,僅需2000枚芯片,能耗則降低至4兆瓦。

另外,據日媒報道,輝達計劃從三星采購高頻寬記憶體(HBM)芯片,這是人工智能處理器的關鍵元件,目前正在測試。

黃仁勛表示:「HBM是一個技術奇跡,它可以提高能源效率,並且隨著耗電的人工智能芯片變得更加普遍,可以幫助世界變得更加可持續。」

值得一提的是,目前國內有很多數據中心也考慮到節能問題。如海底數據中心以海洋作為自然冷源,將伺服器安放在海底的容器中,透過海水的流動進行自然冷卻。

李修全稱,我們對能源需求問題不必過於恐慌,但是必須同步應對。未來,在芯片算力快速升級提升的同時,單位算力所需能耗水平還將持續降低。同時,液冷技術、光互聯技術將進一步提升人工智能算力集群能效比;針對特定問題對大模型進行量化壓縮並再訓練成專用模型,很多工不再需要用大規模高耗能模型。(完)