(來源:由 AI 生成的圖片) 隨著ChatGPT引發(fā)新一輪人工智能(AI)熱潮,而其背后帶來的能耗問題也持續(xù)引發(fā)關(guān)注。 今年4月10日,芯片巨頭 Arm公司CEO哈斯(Rene Haas)公開表示,包括ChatGPT在內(nèi)的 AI 大模型需要大量算力,預(yù)計(jì)到2030年,AI 數(shù)據(jù)中心將消耗美國20%至25%的電力需求,相比今天的4%大幅增加。 公開數(shù)據(jù)顯示,目前,ChatGPT每天需要處理超過2億次請求,其電量消耗高達(dá)每天50萬千瓦時(shí)。一年時(shí)間,ChatGPT光電費(fèi)就要花2億元人民幣。 這意味著,ChatGPT日耗電量是普通家庭的1.7萬倍以上。(美國商業(yè)用電一度約為0.147美元也就是1.06元,相當(dāng)于一天53萬元) 據(jù)荷蘭咨詢機(jī)構(gòu)負(fù)責(zé)人Alex de Vries預(yù)計(jì),到2027年,AI 行業(yè)每年將消耗850億~1340億千瓦時(shí)的電力,相當(dāng)于瑞典或荷蘭一個(gè)歐洲國家一年的總用電量。 馬斯克判斷,電力缺口最早可能會(huì)在2025年發(fā)生,“明年你會(huì)看到,我們沒有足夠電力來運(yùn)行所有的芯片”。 OpenAI CEO奧爾特曼(Sam Altman)也預(yù)計(jì),AI 行業(yè)正在走向能源危機(jī),未來 AI 技術(shù)發(fā)展將高度依賴于能源,人們也需要更多的光伏和儲能產(chǎn)品。 這一切都顯示出,AI 即將引爆全球新一輪“能源戰(zhàn)爭”。 不止是芯片,AI 還被能源“卡脖子”過去500多天里,ChatGPT引發(fā)全球新一輪 AI 大模型和算力需求熱潮。 微軟、谷歌、Meta、OpenAI等多家全球科技巨頭開始瘋搶 AI 芯片,甚至親自下場“造芯”,總規(guī)模超過數(shù)十萬億元美金。 實(shí)際上,AI 本質(zhì)上是一種計(jì)算機(jī)技術(shù)和處理信息的技術(shù),背后則需要大量GPU芯片,更底層則是大量電能、水力、風(fēng)能、資金等資源的支持。 早在1961年,在IBM公司工作的物理學(xué)家拉爾夫·蘭道爾(Rolf Landauer)發(fā)表了一篇論文,提出了后來被稱為“蘭道爾原理”(Landauer's Principle)的理論。 這一理論認(rèn)為,計(jì)算機(jī)中存儲的信息發(fā)生不可逆的變化時(shí),會(huì)向周圍環(huán)境散發(fā)一點(diǎn)點(diǎn)熱量,其散發(fā)的熱量和計(jì)算機(jī)當(dāng)時(shí)所處的溫度有關(guān)——溫度越高,散發(fā)的熱量越多。 蘭道爾原理連接起了信息和能量。更具體地說,它連接到了熱力學(xué)第二定律上。因?yàn)檫壿嬌喜豢赡娴男畔⑻幚聿僮?,也就意味著湮滅了信息,這會(huì)導(dǎo)致物理世界中熵的增加,從而消耗能量。 這一原理自提出以來遭受過不少質(zhì)疑。但近十幾年來,“蘭道爾原理”已被實(shí)驗(yàn)證明。 2012年,《自然》雜志發(fā)表了一篇文章,研究團(tuán)隊(duì)首次測量到了一“位”(bit)數(shù)據(jù)被刪除時(shí)釋放的微量熱量。后來的幾次獨(dú)立實(shí)驗(yàn),也都證明了“蘭道爾原理”。 過去10多年間,現(xiàn)代電子計(jì)算機(jī)在計(jì)算時(shí)實(shí)際消耗的能量,是蘭道爾理論值的數(shù)億倍。而科學(xué)家們一直在努力尋找更高效的計(jì)算方法,以降低成本。 如今,AI 大模型爆發(fā),它確實(shí)需要大量計(jì)算。因此,AI 不止被芯片“卡脖子”,還被能源“卡脖子”。 馬斯克近期也在“博世互聯(lián)世界2024”大會(huì)上表示,一年多以前,短缺的是芯片,明年你會(huì)看到電力短缺,無法滿足所有芯片的需求。 中國科學(xué)技術(shù)信息研究所人工智能中心副主任李修全也表示,近年來, AI 大模型規(guī)模、數(shù)量都在高速增長,也帶來對能源需求的快速增加。盡管短期內(nèi)還不會(huì)很快出現(xiàn)“缺電”等問題,但未來大規(guī)模智能化時(shí)代來臨后的能源需求激增不容忽視。 AI 大模型質(zhì)量的關(guān)鍵在于數(shù)據(jù)、算力和頂尖人才,而高算力的背后,是靠著數(shù)萬張芯片晝夜不停的運(yùn)轉(zhuǎn)支撐。 具體來說,AI 模型算力的工作過程大致可以分為訓(xùn)練、推理兩個(gè)階段,能源消耗也是如此。 其中,在AI訓(xùn)練階段,首先需要收集和預(yù)處理大量的文本數(shù)據(jù),用作輸入數(shù)據(jù);其次,在適當(dāng)?shù)哪P图軜?gòu)中初始化模型參數(shù),處理輸入的數(shù)據(jù),嘗試生成輸出;最后,通過輸出與預(yù)想之間的差異反復(fù)調(diào)整參數(shù),直到模型的性能不再顯著提高為止。 從訓(xùn)練15億參數(shù)的GPT-2,到訓(xùn)練1750億參數(shù)的GPT-3,OpenAI模型背后的訓(xùn)練能耗十分驚人。公開信息稱,OpenAI 每訓(xùn)練一次需要128.7度電,相當(dāng)于 3000 輛特斯拉同時(shí)跑 32 公里。 據(jù)研究機(jī)構(gòu)New Street Research估計(jì),僅在AI方面,谷歌就需要大約40萬臺服務(wù)器,每天消耗62.4吉瓦時(shí),每年消耗22.8太瓦時(shí)的能源。 而在推理階段,AI 則會(huì)先加載已經(jīng)訓(xùn)練好的模型參數(shù),預(yù)處理需要推理的文本數(shù)據(jù),再讓模型根據(jù)學(xué)習(xí)到的語言規(guī)律生成輸出。谷歌稱,從2019年到 2021年,AI相關(guān)能源消耗60%都來自推理。 據(jù)Alex de Vries估算,ChatGPT每天大概要響應(yīng)大約2億個(gè)請求,耗電量超過50萬度,按照一年電費(fèi)就是2億元人民幣,比每個(gè)美國家庭的平均日用電量高1.7倍。 SemiAnalysis報(bào)告稱,使用大模型進(jìn)行問題搜索所消耗的能源是常規(guī)關(guān)鍵詞搜索的10倍。以谷歌為例,標(biāo)準(zhǔn)谷歌搜索使用0.3Wh電力,而大模型每次互動(dòng)的耗電量為3Wh。如果用戶每次在谷歌搜索都使用AI工具,每年大約需要29.2太瓦時(shí)的電力,也就是每天約7900萬度。這相當(dāng)于給全球最大的摩天大樓,迪拜的哈利法塔,連續(xù)供電超過300年。 另據(jù)斯坦福人工智能研究所發(fā)布的《2023年 AI 指數(shù)報(bào)告》顯示,每次 AI 搜索的耗電量大約為8.9瓦時(shí)。相比普通谷歌搜索,加入 AI 的單次耗電量幾乎是一般搜索的30倍。而一個(gè)高達(dá)1760億參數(shù)的模型,光是前期訓(xùn)練階段就得用掉了43.3 萬度電,相當(dāng)于美國117個(gè)家庭一年的用電量。 值得注意的是,在Scaling Law(縮放規(guī)律)之中,隨著參數(shù)規(guī)模不斷躍升,大模型性能也不斷提升,而對應(yīng)的是,能耗也會(huì)越來越高。 因此,能源問題已經(jīng)成為 AI 技術(shù)持續(xù)發(fā)展的關(guān)鍵“桎梏”。 GPT每天消耗50000升水,電和水是 AI 兩大能源需求AI不僅是“耗電狂魔”,更是“吞水巨獸”。 其中,在電力方面,除了上述信息外,據(jù)國際能源署(IEA)數(shù)據(jù)顯示,2022年,全球數(shù)據(jù)中心消耗約460太瓦時(shí)的電量(相當(dāng)于全球總需求的2%),隨著生成式AI飛速發(fā)展,這一數(shù)字到2026年可能膨脹至620至1050太瓦時(shí)。 Alex de Vries預(yù)計(jì),到2027年,AI服務(wù)器所消耗的用電量將等同于荷蘭全國的能源需求量。最壞的情況就是,僅谷歌一家公司的AI就可以消耗與愛爾蘭等國家一樣多的電力。 IBM高級副總裁達(dá)里奧·吉爾曾表示,“AI能耗”是非常重要的挑戰(zhàn)。生成式 AI 的高性能服務(wù)器的持續(xù)運(yùn)行,將導(dǎo)致數(shù)據(jù)中心一半以上的電力消耗都被AI占據(jù)。據(jù)悉,預(yù)計(jì)到2025年,AI 業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%猛增到10%。 那么,水能呢?大模型背后需要數(shù)據(jù)中心、云基礎(chǔ)設(shè)施的支持,那就需要大量的“液冷”進(jìn)行散熱。 得克薩斯大學(xué)的一份研究指出,作為ChatGPT背后的重要支持力量,微軟的Microsoft Azure云數(shù)據(jù)中心光是訓(xùn)練GPT-3,15天就用掉將近70萬升的水,相當(dāng)于每天花銷約50000L水。 同時(shí),ChatGPT每回答50個(gè)問題就要消耗500毫升水。公開信息稱,2022年微軟用水量達(dá)到640萬立方米,比2500個(gè)奧林匹克標(biāo)準(zhǔn)游泳池的水量還多。 美國加州大學(xué)河濱分校副教授任紹磊團(tuán)隊(duì)預(yù)計(jì),到2027年,全球AI可能需要4.2-66億立方米的清潔淡水量,這比4-6個(gè)丹麥、或二分之一的英國的一年取水總量還要多。 除了數(shù)據(jù)中心,內(nèi)置的GPU芯片也是能源消耗的重點(diǎn)領(lǐng)域之一。今年3月,英偉達(dá)發(fā)布史上性能最強(qiáng)AI芯片——Blackwell GB200,宣稱是A100/H100系列AI GPU的繼任者,性能相比H100提升30倍,但能耗卻降低了25倍。 上個(gè)月,黃仁勛的一句“AI的盡頭是光伏和儲能”更是在網(wǎng)絡(luò)瘋傳。盡管有網(wǎng)友扒出原視頻稱,黃仁勛本人并未說過這句話,更沒有提及“光伏和能源”,但 AI 能耗嚴(yán)重,卻是擺在公眾面前的事實(shí)。 國際能源機(jī)構(gòu)(IEA)在一份報(bào)告中強(qiáng)調(diào)了這個(gè)問題,全球 AI 數(shù)據(jù)中心的耗電量將是 2022 年的十倍,并指出部分原因在于 ChatGPT 這樣的大模型所需的電力,遠(yuǎn)高于谷歌等傳統(tǒng)搜索引擎。 不過,值得注意的是,由于科技巨頭們并未正式披露過 AI 使用中的電力消耗數(shù)據(jù),因此,目前關(guān)于 AI 耗電量的數(shù)據(jù)多為估算,并不一定是非常準(zhǔn)確的數(shù)據(jù)。美國信息技術(shù)與創(chuàng)新基金會(huì)(ITIF)曾指出,個(gè)別不準(zhǔn)確的研究高估了AI能耗。AI訓(xùn)練是一次性事件,它的使用是長期過程。人們應(yīng)關(guān)注 AI 能耗的長期影響,并非爆發(fā)式增長。 有專家認(rèn)為,目前大模型訓(xùn)練成本中60%是電費(fèi),能源開支已經(jīng)嚴(yán)重制約著大模型的迭代升級。 金沙江創(chuàng)投主管合伙人朱嘯虎近日也表示,可控核聚變實(shí)現(xiàn)前,我們并沒有足夠的算力實(shí)現(xiàn)真正的AGI。幫人類降低90%的工作可能未來3到5年可以實(shí)現(xiàn),但最后的10%可能需要大量的算力和能耗。 如何解決 AI 能耗之困?硬件優(yōu)化和核聚變或是重要手段雖然黃仁勛也非常擔(dān)憂能源供給,但他卻給出了一個(gè)更樂觀的看法:過去10年,AI 計(jì)算提高了100萬倍,而它消耗的成本、空間或能源并未增長100萬倍。 美國能源情報(bào)署發(fā)布的長期年度展望中估計(jì),美國目前電力需求的年增長率不到1%。而按新能源公司NextEra Energy CEO約翰?凱徹姆(John Ketchum)的估計(jì),在 AI 技術(shù)的影響下,這一電力需求年增長率將加快至1.8%左右。 波士頓咨詢集團(tuán)的報(bào)告則顯示,2022年,數(shù)據(jù)中心用電量占美國總用電量(約130太瓦時(shí))的 2.5%,預(yù)計(jì)到2030年將增加兩倍,達(dá)到7.5%(約390太瓦時(shí))。這相當(dāng)于約4000萬個(gè)美國家庭的用電量,即全美三分之一家庭的用電量。該集團(tuán)還預(yù)計(jì),生成式 AI 將至少占美國新增用電量的1%。 這意味著,即使數(shù)據(jù)中心、AI 新增用電量并不小,但還遠(yuǎn)不到毀天滅地的地步。 而在成本方面,國際可再生能源署報(bào)告指出,過去十年間,全球風(fēng)電和光伏發(fā)電項(xiàng)目平均度電成本分別累計(jì)下降超過了60%和80%。上述業(yè)界人士也介紹說,“光伏的綜合成本跟火電差不多,風(fēng)電一半?yún)^(qū)域的綜合成本比火電低了。” 因此,隨著 AI 技術(shù)一路狂飆,我們又將如何應(yīng)對即將到來的能源需求熱潮? 鈦媒體App根據(jù)一些行業(yè)專家的觀點(diǎn)總結(jié)來看,目前解決 AI 能耗問題有兩種方案:一是可以通過大模型或AI硬件優(yōu)化降低能耗;二是尋找新的能源,比如核聚變、裂變資源等,以滿足AI能耗需求。 其中,在硬件優(yōu)化方面,對于能耗較高的萬億級 AI 大模型,可以通過算法和模型優(yōu)化,壓縮模型token大小及復(fù)雜度,以降低能源消耗規(guī)模;同時(shí),企業(yè)也可以持續(xù)開發(fā)和更新能耗更低的 AI 硬件,如最新的英偉達(dá)B200,AI PC或AI Phone終端等;此外,通過優(yōu)化數(shù)據(jù)中心的能效,提高電源使用效率,以降低能源消耗。 對此,中國企業(yè)資本聯(lián)盟副理事長柏文喜表示,未來,還需要進(jìn)行技術(shù)創(chuàng)新和設(shè)備升級,以進(jìn)一步提高發(fā)電效率、提高電網(wǎng)輸送能力和穩(wěn)定性、優(yōu)化電力資源配置、提高電力供應(yīng)的靈活性、推廣分布式能源系統(tǒng)并減少能源輸送損耗,以此來應(yīng)對算力發(fā)展帶來的能源需求挑戰(zhàn)。 中國數(shù)據(jù)中心工作組(CDCC)專家委員會(huì)副主任曲海峰認(rèn)為,相關(guān)行業(yè)應(yīng)該要重視提升數(shù)據(jù)中心用電能效,而不是抑制它的規(guī)模。數(shù)據(jù)中心并非要減少對能源的消耗,而是要提升能源消費(fèi)的質(zhì)量。 而在開發(fā)核聚變能源方面,由于可控核聚變由于原料資源豐富、釋放能量大、安全清潔、環(huán)保等優(yōu)勢,能基本滿足人類對于未來理想終極能源的各種要求。 核聚變的能量來源目前主要有三種:宇宙能源,即太陽發(fā)光發(fā)熱;氫彈爆炸(不受控核聚變);人造太陽(受控核聚變能源裝置)。 據(jù)統(tǒng)計(jì),當(dāng)前世界共有50多個(gè)國家正在進(jìn)行140余項(xiàng)核聚變裝置的研發(fā)和建設(shè),并取得一系列技術(shù)突破,IAEA預(yù)計(jì)到2050年世界第一座核聚變發(fā)電廠有望建成并投入運(yùn)行。 這種核聚變發(fā)電,將大大緩解全球因 AI 大模型需求造成的能源短缺情況。 2023年4月,奧爾特曼就“未雨綢繆”,以個(gè)人名義向核聚變初創(chuàng)公司Helion Energy投資3.75億美元(約合人民幣27.04億元),并擔(dān)任公司董事長。同時(shí),去年7月,奧特特曼還通過旗下公司AltC與其投資的核裂變初創(chuàng)公司Oklo合并,斬獲了一個(gè)估值約為8.5億美元(約合人民幣61.29億元)的IPO,ALCC最新市值超過400億美元。 除了奧爾特曼這種重金投資核聚變公司,亞馬遜、谷歌等科技巨頭則直接大手筆采購清潔能源。 據(jù)彭博數(shù)據(jù)顯示,僅在2023年,亞馬遜就購買了8.8GW(吉瓦)的清潔能源電力,已經(jīng)連續(xù)第 4 年成為全球最大的企業(yè)清潔能源買家。Meta(采購3GW)和谷歌(采購1GW)等科技公司則位列其后。 亞馬遜稱,其90%以上的數(shù)據(jù)中心電力都來源于清潔能源產(chǎn)生的電力,預(yù)計(jì)能在2025年實(shí)現(xiàn)100%使用綠色電力。 實(shí)際上,以美國為例。清潔能源、AI、數(shù)據(jù)中心、電動(dòng)汽車、挖礦等多種產(chǎn)業(yè)的增長,讓原本陷入停滯的美國電力需求再度“起飛”。但即使被譽(yù)為世界上“最大的機(jī)器”,美國電網(wǎng)也似乎無法應(yīng)對這突如其來的變化。 有分析師指出,美國70%的電網(wǎng)接入和輸配電設(shè)施已老化,某些地區(qū)電網(wǎng)傳輸線路不足。因此,美國電網(wǎng)需要大規(guī)模升級,如果不采取行動(dòng),到2030年美國將面臨一道難以逾越的國內(nèi)供應(yīng)缺口。 相對于美國,中國則對能源需求表達(dá)樂觀態(tài)度?!癆I再耗電,中國的體量和能力足以支撐,現(xiàn)在不進(jìn)行大規(guī)模開發(fā),是因?yàn)闆]需求?!币晃伙L(fēng)電行業(yè)人士表示,中國可規(guī)劃的容量足夠大,AI要是有大量電力需求,我現(xiàn)在就能上項(xiàng)目當(dāng)中去工作。 目前,中國風(fēng)電、光伏產(chǎn)品已經(jīng)出口到全球200多個(gè)國家和地區(qū),累計(jì)出口額分別超過334億美元和2453億美元。 隨著 AI 呈現(xiàn)爆發(fā)式增長,這場中美 AI 產(chǎn)業(yè)角逐,已經(jīng)從大模型技術(shù)比拼,升級成為一場算力、能源、人力等多方位爭奪戰(zhàn)。 隨著核聚變能源或?qū)⒌?050年落地,人類期望終結(jié) AI 能耗這一具有挑戰(zhàn)性難題,進(jìn)入無限發(fā)電時(shí)代。 (本文首發(fā)鈦媒體App,作者|林志佳。張盈對本文亦有貢獻(xiàn)) |
19款電子扎帶
電路板識別電子標(biāo)簽