老黃又來掀桌了啦!
在今天淩晨的 2023 年全球超算大會( SC2023 )上,英偉達推出了全新GPU H200 。
作爲前代 H100 的升級款,老黃直接不裝了,在官網上單方面将 H200 稱爲 " 當世最強 " 。
但更秀的是,沒人會因此質疑他們違反廣告法,因爲在 AI 時代,對手們真隻能眼巴巴地看着英偉達的車尾燈。
從英偉達官方透露的數據來看, H200 最強的就是在大模型推理表現上。
以 700 億參數的 LLama2 大模型爲例, H200 推理速度幾乎比前代的 H100 快了一倍,而且能耗還降低了一半。
能取得這麽強的成績,自然是 H200 的硬件給力。
從參數方面看, H200 的主要提升就是把上一代 " G 皇 "H100 的顯存,從 80GB 拉到了 141GB ,帶寬從 3.35TB/s 增加到了 4.8 TB/s 。
而這些進步則主要要歸功于HBM3e 内存技術。
今年 8 月的時候, SK 海力士推出 HBM3e 之後,據宣稱單顆帶寬可以達到 1.15TB/s ,相當于在 1 秒鍾内傳輸了 230 部 FHD 高清電影(每部容量 5G )。
在 SK 海力士官宣 HBM3e 之後不久,包括三星、美光在内的内存廠商們,都陸續跟進了這一技術。
這個 HBM3e ,其實就是之前大家都在用的 HBM3 的升級版。
說白了就是有更高的性能、更高的帶寬,好處就是芯片能用更快的速度傳輸數據,同時還降低功耗。
非常适合眼下的AI 和大數據運用。
于是英偉達第一時間就找到 SK 海力士進行了合作。
所以我們能看到這才沒多久, H200 就已經用上了這一新技術。
比起技術升級更方便的是, H200 和 H100 都是基于英偉達 Hopper 架構打造的。
所以兩款芯片可以互相兼容,那些裝滿了 H100 的企業不需要調整,可以直接更換。
不過,乍一看好像是王炸,但實際上H200 可能隻是 H100 的一個 " 中期改款 " 。
因爲我們發現, H100 和 H200 單論峰值算力的話,其實是一模一樣的。
真正提升的參數隻有顯存、帶寬。
而在此前,大家常用來評判 AI 芯片性能的重要參數:訓練能力。
H200 相較 H100 的提升也并不明顯。
從英偉達給出的數據來看,在 GPT-3 175B 大模型的訓練中, H200 隻比 H100 強了 10% 。
在世超看來,這種操作大概率是有意爲之。
之前各個大廠忙着打造自家的大模型,對 GPU 最大的需求毫無疑問就是訓練,所以當時大家的需求是提升訓練能力。
而如今,随着 AI 大語言模型不斷落地應用,訓練模型在廠商眼中可能已經是牛夫人了,大家反而全去卷推理速度。
所以這次 H200 很可能是故意忽略 " 算力 " 升級,轉而進行推理方面的發力。
不得不說,老黃的刀法依舊精準。
當然了,這也是英偉達工程師們給老黃擠牙膏的本事,誰讓人家顯卡真就遙遙領先呢。
哪怕隻是做了個小提升, H200 還真就能當得起 " 當世最強 " 的名号。
而且根據瑞傑金融集團估計, H100 芯片售價在 2 萬 5-4 萬美金之間,那加量後的 H200 隻會比這高。
而如今像亞馬遜、谷歌、微軟和甲骨文等大廠的雲部門,已經付完錢排排站,就等着明年 H200 交貨了。
畢竟,哪家大模型随便升個級不要幾千個 GPU ?
隻能說這波老黃又又又賺麻了。
但問題就是,加價對于 AI 芯片永遠不是問題。
今年初創公司、大廠、政府機構等等爲了搶一張 H100 擠破腦袋的樣子還在上演,所以明年H200 的銷量根本不用愁。
" 是人是狗都在買顯卡 " ,去年說完這句話的馬斯克也不得不轉頭就加入 " 搶卡大軍 " 。
更誇張的是,英偉達方面還說了,推出 H200 不會影響 H100 的擴産計劃。
也就是明年英偉達還是打算賣 200 萬顆 H100 芯片,也能側面看出, AI 芯片是多麽不愁賣。
但面對全球嗷嗷待哺的市場,英偉達其實也有點力不從心。。
像 OpenAI 作爲打響 AI 革命第一槍的人,結果因爲沒有足夠的 GPU 痛苦得不行。
比如因爲算力不夠用,自家 GPT 們被各種吐槽 API 又卡又慢;
因爲算力不夠用, GPT 更強的上下文能力始終沒法全員推廣;
因爲算力不夠用, GPT 們沒法賣給客戶更多專有定制模型。。。
光連 OpenAI 創始人奧特曼,就已經出來好幾次炮轟過算力短缺。
而爲了解決這個問題, OpenAI 也想了不少辦法。
比如自研 AI 芯片、與英偉達等制造商展開更緊密合作、實現供應商多元化等等。
上個月初就有消息說 OpenAI 已經在找收購目标了。
更進一步的是特斯拉,他們就在 7 月推出了由定制 AI 芯片 D1 打造的 Dojo 超級計算機,用來訓練自動駕駛系統。
當時摩根士丹利直接吹了一篇研報說:特斯拉這波下來,比用英偉達的 A100 足足省下了 65 億美元。
當然,這也不是說馬斯克的這個自研的 AI 芯片就比 A100 強了。
而隻是因爲自研芯片隻需要幹自家的活,更符合自己需要、也沒有算力浪費。
就好比英偉達的芯片是一鍋大雜燴,誰來了吃都能吃飽飽;而自研芯片雖然隻是小碗菜,但它可以按照個人口味做,雖然做得少、但更合胃口。
其他大廠也沒閑着,比如微軟要自研 " 雅典娜 " 、谷歌在年初就在自研芯片上取得突破進展。。
但就像我們前面說的,這次 H200 其實隻是一個 " 中期改款 " ,還不足以打消其他廠商們的小心思。
按照英偉達自己放出的消息,大的還是明年會來的 B100 ,從圖裏看它至少是有指數級的提升。
所以世超覺得,大家夥忙活半天,在硬實力面前,黃老爺的位置恐怕還是會越來越穩。
你看像是即使強如 Meta 早在 2021 年就意識到,自己怎麽幹都比不上英偉達的GPU 性能,轉頭就從老黃那下了幾十億訂單( Meta 最近好像又有點自研的心思了 )。
還記得老黃剛宣布英偉達是 " AI 時代的台積電 " 的時候,有不少人冷嘲熱諷。
結果現在才發現,這句話居然是老黃的謙辭。
畢竟 2022 年台積電 " 隻 " 占了全球晶圓代工産能的 60% ,而英偉達如今已經占據了可用于機器學習的圖形處理器市場 80% 以上的份額。
總感覺,等老黃的大招真來了,這些大廠們的芯片自研項目恐怕又得死一片吧。。。