IT 之家 3 月 10 日消息,據 The New Yorker 報道,熱門聊天機器人 ChatGPT 每天需要處理超過 2 億次請求,其電量消耗可能高達每天 50 萬千瓦時。相比之下,美國普通家庭每天的平均用電量僅爲 29 千瓦時,這意味着 ChatGPT 的日耗電量是普通家庭的 1.7 萬倍以上。
更令人擔憂的是,随着生成式人工智能的普及,其電量消耗可能會進一步激增。荷蘭中央銀行數據科學家 Alex de Vries 在一份發表于可持續能源期刊《焦耳》上的論文中計算得出,如果谷歌将生成式人工智能技術應用于所有搜索,其每年将消耗約 290 億千瓦時電量,這相當于肯尼亞、危地馬拉和克羅地亞一年的總發電量。
然而,目前評估蓬勃發展的 AI 行業究竟消耗了多少電量還存在困難。據 The Verge 報道,大型科技公司一直引領着 AI 發展,但它們對于自身能源消耗諱莫如深,同時不同的人工智能模型運行方式也存在巨大差異。
不過,de Vries 在論文中還是根據英偉達公布的數字做出了粗略計算,據 CNBC 報道援引 New Street Research 的數據,英偉達在圖形處理器市場份額中占據了約 95%。de Vries 在論文中估計,到 2027 年,整個 AI 行業将每年消耗 85 到 134 太瓦時(IT 之家注:terawatt,相當于 1340 億千瓦時)的電量。
" 這相當于到 2027 年,人工智能的電量消耗可能占到全球電量的一半左右,"de Vries 告訴《The Verge》," 我認爲這是一個相當可觀的數字。"
相比之下,世界上一些耗電量最大的企業也相形見绌。根據 Businessinsider 基于消費者能源解決方案報告的計算,三星的年耗電量接近 23 太瓦時,谷歌等科技巨頭的數據中心、網絡和用戶設備每年耗電略高于 12 太瓦時,微軟的耗電量則略高于 10 太瓦時。