ChatGPT 居然這麽費電?
最新的等式出現了:
ChatGPT 日耗電量≈ 1.7 萬家庭日耗電量。
什麽概念?一年光電費就要花 2 億!
美國普通家庭平均單日用電 29 千瓦時,而 ChatGPT 的單日用電量超過了50 萬千瓦時。
(美國商業用電一度約爲 0.147 美元也就是 1.06 元,相當于一天 53 萬元)
消息一出就直接沖上熱搜第一了。
除了 OpenAI,谷歌也 " 不容小觑 ":
在谷歌搜索中應用生成式 AI 技術,谷歌每年的耗電量将高達 290 億千瓦時,也就是每天約 7900 萬度(?)。
而在未來,AI 這一 " 吃電巨獸 " 的食量還會更驚人。
數據統計:
到 2027 年,人工智能數據中心的用電量将和荷蘭、瑞典等小國用電量相當。
有網友看完表示:
這是利好光伏和風電?
所以 AI 最後拼的是誰發電多、誰發電成本低?
AI 要耗多少電?
如上數據來自一篇論文《The growing energy footprint of artificial intelligence》。
作者是荷蘭數字經濟學家 Alex de Vries,他通過英偉達、OpenAI、谷歌等公開數據進行估算。
結果就得出了很多意想不到的結論。
首先,現在大模型訓練時期的耗電量和推理階段相比,已經不值一提了。
SemiAnalysis 數據顯示,OpenAI 需要3617 台英偉達 HGX A100、共 28936 個 GPU 來支持 ChatGPT 推理。
ChatGPT 每天需要響應 1.95 億次請求,預計每天需要消耗 564 兆瓦時電力,每個請求大約 2.9 瓦時。
而 GPT-3 整個訓練階段的耗電量預估爲 1287 兆瓦時,是 ChatGPT 大約 4 天的消耗量。
谷歌報告也表示,2019-2021 年,與人工智能相關的能源消耗中有 60% 來自推理部分。
因此論文提出未來研究 AI 用電量時,更應該從全周期角度考量。
但這也與模型再訓練頻率、模型性能與功耗之間的平衡有關系。比如 BLOOM 在推理階段的耗電量就顯著降低。
其次,搜索引擎如果用上 AI,耗電量還會更高。
谷歌方面曾在去年 2 月表示,AI 響應請求的成本可能是普通搜索的 10 倍。
數據顯示,使用一次谷歌搜索消耗的電量是0.3 瓦時。這和上面分析給出的數據相呼應。
如果要将大模型能力植入到谷歌搜索中,預計需要512821個 HGX A100,按照每台設備功耗爲 6.5 千瓦來計算,每天将需要 80 吉瓦時的電力消耗,一年需要 29.2 太瓦時。
目前谷歌每天需要處理高達 90 億次搜索,換算一下,平均每個請求要消耗 6.9-8.9 瓦時,已經是普通搜索的 20 倍 +。
同樣的現象在英偉達的财報數據中也可以看到。
去年第二季度,英偉達收入創紀錄,其中數據中心部門較上季度相比增長了 141%,這表示 AI 方面的需求擴增。
今年,英偉達 AI 服務器出貨量可能達到 150 萬台,總功耗可能達到 9.75-15.3 吉瓦。這一數量級的服務器,每年的用電量将達到 85.4-134 太瓦時。
不過 AI 用電量會一路飙升嗎?
研究認爲也不一定。
哪怕像谷歌這樣在全球擁有數十億用戶的廠商,也會慎重考慮 AI 與搜索引擎的融合。硬件、軟件和電力成本壓力下,廠商腳步或許沒那麽快。
硬件生産本身還受到掣肘,AI 熱潮使得台積電 CoWoS 先進封裝産能吃緊,但新建工廠真正可能開始批量生産要等到 2027 年,這或許也會影響英偉達的出貨量。
以及模型本身的算法和架構也會讓 AI 功耗在一定程度上降低。
最終研究認爲,關于 AI 用電量的問題,過于悲觀或樂觀都不可取。
短期内,在各種資源因素影響下,AI 用電量增速會被抑制;但硬件和軟件的能效提高,顯然也無法抵消長期的電力需求增長。
總之,作者認爲在 AI 開發方面,還是不要鋪張浪費的好。監管機構也需要考慮要求廠商披露相關數據,提高整個 AI 供應鏈的透明度,從而更好了解這一新興技術的環境成本。
實際上,此前關于 AI 消耗資源的話題已經多次引發讨論。
有研究指出,到 2027 年,數據中心人工智能的用電量将與荷蘭或瑞典等小國的用電量相當。
加州大學河濱分校研究表明,問 ChatGPT5-50 個問題,就可消耗 500 毫升水。
因爲 AI 超算數據中心需要大量水來散熱,微軟也承認用水是訓練模型的一大成本,從 2021 年到 2022 年,其全球用水量飙升了 34%,相比研究 AIGC 前急劇增加。
網友:也要看産出
除了微博,#ChatGPT 日耗電超 50 萬度 # 的消息也在知乎沖上熱榜第三。
盡管這一數據看起來驚人,但不少網友都表示:
我們還是需要比較一下投入産出。
知乎網友 @段小草就淺算了一下:
一天 50 萬度電,1.7 萬個美國家庭。但美國有 1.2 億個家庭,也就是隻需萬分之一的家庭用電,就能支撐一個服務全球 TOP 1 的 AI 産品、服務幾億用戶,這還是在浪費能源破壞環境嗎?
言外之意,如下所說(來自知乎網友 @桔了個仔):
ChatGPT 創造的價值其實遠超它的能耗。
和某些技術(咳咳,懂得都懂)的耗電量相比,它可能更不值一提了。
所以,有人(知乎網友 @玩吾傷智)直接就表示,這則消息應該這麽理解:
震驚, 隻需要 1.7 萬普通家庭的電量即可滿足 ChatGPT 的一日用電需求。(手動狗頭)
咳咳,有意思的是,上面的答主 @段小草還提到了一篇論文,題爲《The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans》,講的是AI 在畫畫和寫作上的碳排放量一個比人類少 310 到 2900 倍,一個比人類少 130 到 1500 倍。
這樣看來,AI 甚至算得上" 節能減排的先鋒 "。(手動狗頭)
呐,我們還是早點洗洗睡、關注 GPT-5 什麽時候發吧。
奧特曼:我們需要可控核聚變
話又說回來,盡管比起收益,ChatGPT 一日 1.7 萬個家庭的能耗還不值一提,但 AI 能耗确實也是一個值得關注的問題。
而這點,奧特曼早就在 " 擔憂 " 了。
在今年 1 月的一場達沃斯會議中,他就表示:
人工智能的未來取決于清潔能源的突破。
△ 圖源 Digwatch
具體而言,他認爲:
随着技術越來越成熟,AI 将消耗越來越大量的電力,如果能源技術無法突破,就無法實現這一目标(即讓 AI 技術釋放全部潛力)。
而現在,公衆還不是很了解這個需求究竟有多大,奧特曼本人表示也遠超他的預期。
至于如何提升能源産量,他也直言:
需要可控核聚變,或者更便宜的太陽能及存儲等等。
——說起可控核聚變,奧特曼其實早就押注了一家相關公司,名叫Helion。
他在它身上投資了 3.75 億美元,這是他以個人名義投資的最大一筆。
除此之外,奧特曼的 " 爸爸 "微軟也押注了這家公司。
據了解,Helion 成立于 2013 年,目前約 150+ 員工。他們預計将在 2028 年上線 50 兆瓦規模的可控核聚變發電項目,微軟将率先采購。
原報告:
https://www.cell.com/joule/abstract/S2542-4351 ( 23 ) 00365-3
參考鏈接:
[ 1 ] https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_
[ 2 ] https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3
[ 3 ] https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai
[ 4 ] https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy
[ 5 ] https://www.zhihu.com/question/647926823