6月底,谷歌新一代開源模型Gemma2發布,相比今年早些時候推出的輕量級開源模型Gemma,Gemma2有了90億(9B)和270億(27B)兩種參數規模可用。
就在谷歌摩拳擦掌準備與OpenAI一較高下時,前幾天其發布的一份報告卻引來了媒體的“擔憂”——谷歌新發布的環境報告指出,自2019年以來,其溫室氣體總排放量增長了48%。
僅去年一年谷歌就產生了1430萬噸二氧化碳,同比2022年增長13%,主要由于來自范圍2的碳排放同比增長37%。
這些數據顯然與谷歌“2030年實現零排放”的目標南轅北轍了,作為全球大的互聯網科技巨頭之一,如此“奔放”的碳排放數據顯然會為其招來各種非議。
為何碳排放大增?
在谷歌發布的環境報告中,其將碳排放量激增歸因于數據中心的能源的使用和供應鏈排放的增加。自互聯網誕生以來,數據中心一直是高能耗的代表,而今用于訓練人工智能的數據中心更是如此。
谷歌在報告中稱:“隨著我們進一步將人工智能融入到產品中,減少碳排放變得更具有挑戰性,因為人工智能計算強度的提高導致能源需求增加,而基礎設施投資的增加也會導致碳排放增加。”
據報告數據顯示,谷歌僅數據中心的用電量在2023年就增長了17%,預計這一“趨勢”將在未來持續下去。
實際上,谷歌的碳排放已經是“極力優化”的結果了,報告指出截至2023年底,谷歌連續七年實現100%可再生能源消耗,并借此在2023年實現了63%的碳排放減少。
圖源:谷歌2024環境報告
在此基礎上,碳排放之所以仍然大幅增長,主要是因為數據中心耗能太大,但可再生能源有限,無可奈何。
報告原文指出,谷歌已經努力在全球實現100%可再生能源匹配的目標,但GHG協議為能源采購確立了范圍以減少范圍2的排放。這就導致在一些地區我們購買的清潔能源比我們的電力消耗量更多(例如歐洲),但在其他地區(如亞太地區)由于清潔能源采購具備一定挑戰,導致采購不足。這之間的差異是范圍2碳排放統計增加的原因。
圖源:谷歌2024環境報告
總而言之,谷歌想表達的無非是“我很努力,但在AI革命的浪潮下無計可施”,頗有一種“發展才是硬道理的意思”。
的確,以如今AI爆發的勢頭,如果讓能源卡了自己的脖子,導致大模型落后于OpenAI,以至于丟了人工智能時代的“船票”,那可不是谷歌愿意看到的結果。
雖然谷歌在報告中給出了后續解法,比如正在努力提高其人工智能模型、硬件和數據中心的能源效率,以及計劃到2030 年實現24/7全天候無碳能源(CFE)這一終極目標。但隨著人工智能的不斷發展,大模型的不斷迭代,谷歌需要的能耗依然是只會多不會少。
未來,谷歌大概率將持續面對來自公眾及媒體關于氣候議題的壓力。
AI何以成為“吃電狂魔”?
谷歌并不是唯一一家碳排放不斷增加的科技公司。
今年5月,微軟透露自2020年以來,其二氧化碳排放量增加了近30%。而為OpenAI提供大量計算的雷德蒙德也將排放量的增加歸咎于其云計算和人工智能業務部門的數據中心設施的建設和配置。
可以說,正在自己開發大模型的互聯網科技公司幾乎都有“能耗/碳排放巨大”的問題。
大模型究竟有多耗電?靈碳智能創始人李博杰告訴虎嗅,根據推測,以GPT-4為例,其訓練使用了25000張a100,并花了90-100天進行訓練,預計總耗電量在51,000mwh - 62,000mwh左右。
而一戶普通人家一年的用電量大概在1000kwh左右,因此全部訓練耗能相當于5萬戶人家一年的用電量;同時,此耗電量相當于三峽大壩一年發電量(按一年發電1000億千瓦時計算)的0.05%,發電側使用的水量約為2.3億立方米(三峽電站標準)。
從使用側來看,1次GPT-4查詢估計消耗約0.005 kwh。根據OpenAI公布的數據,GPT每天在全球有數億次查詢,保守估計每天消耗的電量為1gwh。
按一戶普通人家一年用電1000kwh算,每天模型推理耗能相當于1000戶人家一年的用電量;若按年計算,OpenAI消耗的能源在90-200gwh左右,相當于三峽大壩一年發電量(按一年發電1000億千瓦時計算)的0.2%,發電側使用的水量約為9億立方米(三峽電站標準)。
荷蘭科學家亞歷克斯·德弗里斯也在他的論文中指出,到2027年,AI耗電量或將接近人口超過1000萬的瑞典或1700萬人口的荷蘭一年的總用電量,相當于當前全球用電量的0.5%。
一筆賬算完堪稱恐怖,也怪不得黃仁勛與山姆·奧特曼都會喊出“未來AI的技術取決于能源”這一論調了。
一個很重要的問題是,為什么人工智能大模型如此耗能?
從技術原理的角度看,李博杰認為主要有4點原因:
目前主流的LLM模型采用了基于transformer架構的深度神經網絡算法,這種架構的算法通過自注意力機制處理數據,并考慮序列的不同部分或句子的整個上下文,從而生成對模型結果的預測。市面上先進的LLM通常包含了萬億級別的參數,參數越多,模型復雜度越高,訓練時的計算量就越大。
模型訓練的基礎數據(如大規模語料庫)的存儲、處理都需要消耗大量的能源。
目前的LLM都采用了并行化的方式進行計算,所以對高性能的GPU集群有著大量的要求。高性能的GPU的運作不僅消耗大量的能源,同時也對冷卻系統提出了很高的要求。
LLM的推理階段,用戶每一次查詢都涉及能源的消耗。
這些因素共同導致了人工智能大模型在訓練和推理過程中會消耗大量能源。
而當下巨頭混戰大模型的背后,映射的也是全球能源消耗的大增。根據國際能源署的數據,2022年美國2,700個數據中心消耗了全國總電力的 4% 以上;到2026年,全球數據中心的電力消耗可能會翻一番。
隨后,高盛在2024年4月的一項分析預測,至本世紀末全球數據中心的用電量將增加1.8倍至3.4倍。
華盛頓郵報則是直接指出,不斷飆升的用電需求引發了人們的爭奪,試圖從老化的電網中榨取更多的電力。但據美國能源信息署數據顯示,2023年,美國全口徑凈發電量為41781.71億千瓦時,比上一年下降1.2%。近十年來,美國的全年凈發電量一直在40000億千瓦時的邊緣徘徊。
無可否認,能源危機(主要是電)已近在眼前,且很可能成為制約AI發展的關鍵因素。
高能耗還得持續下去
AI要想發展必須得維持這樣的高能耗嗎?
比爾蓋茨曾經在接受媒體采訪時表示不用擔心,因為人工智能雖然消耗能源,但技術會進步,未來的能耗會持續下降。
但關鍵問題在于,當下大模型的訓練是否有盡頭?
在第六屆北京智源大會上,楊植麟、王小川等4位大模型CEO就AGI的實現進行了一次交流,4位CEO的共識是AGI太遙遠,只有模型降價能推動現實落地。
李博杰也認為,即便是算力一直無限增加,按照目前主流大模型的技術路線,不會達到理想的AGI階段:“AGI代表了AI算法擁有類似人腦的思考模式。目前深度神經網絡只是對人腦運作時的電信號傳播的一種簡化模擬。根據目前人類對人腦運作模式的了解,人腦的運作還包含神經遞質傳遞,基因調控,分子信號傳導,非神經細胞調節,體液因子調節等多個不同的信號運輸和調節機制。因此,基于深度神經網絡的LLM發展,不會達到類腦智能的水平。”
從另一個角度講,語言只是人類意識的其中一個維度映射,在這個過程中存在大量的信息丟失和扭曲。人類在認識世界的過程中,還包含了視覺、聽覺、觸覺、嗅覺、味覺等多個不同維度。同時,人類自身的運動學習,情緒,社會化的行為和自我意識都是AGI的重要組成部分。
“真正的AGI智能,一定是低能耗的,不過在探索的過程中,會消耗大量的能源,能源消耗是人類社會的終極問題,”李博杰表示:“從可以預測的未來看,能耗問題給人工智能發展帶來的大的問題是加速全球社會的不平等。能源條件差的國家會在這一輪技術變革中掉隊。”
如今,行業雖然正在嘗試解決AI高耗能的問題,比如通過模型的壓縮和蒸餾、更高性價比的專用AI芯片和硬件架構等等,但未來高能耗還將維持一段不短的時間。
就如同科技的發展是螺旋上升的過程,AGI的實現也需要依賴各種學科的同步發展。當下能夠期盼的是,假如大模型算法有盡頭,希望當我們走到盡頭時,AI能夠帶來真正的生產力革命吧。
本文鏈接:http://www.tebozhan.com/showinfo-17-99964-0.html所謂AI革命 到現在為止 是能源的一場“災難”
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com