從 2023 上半年開始,英偉達的 AI 服務器用 GPU(特别是 H100)就供不應求了,這種狀況一直持續到今天。之所以如此,問題出在生産環節,主要涉及台積電的先進制程和封裝産能,特别是 CoWoS 封裝,市場上具備這種先進封裝量産能力的廠商并不多,而台積電沒有預料到市場對英偉達 GPU 的需求增長爆發力如此之強,在 2023 年第二季度才開始大規模擴增 CoWoS 産能。
近期,市場傳來了一個好消息,瑞銀(UBS)的最新報告顯示,英偉達大幅縮短了 AI GPU 的交貨周期,從 2023 年底的 8~11 個月縮短到了現在的 3-4 個月。這對英偉達客戶來說是非常利好的。
01 CoWoS 封裝産能是關鍵
交貨時間縮短,表明台積電擴增的 CoWoS 封裝産能開始釋放。據悉,台積電要在 2024 年底前将相關産能從 2023 年中的水平增加一倍,從目前的情況來看,台積電及其合作夥伴的 CoWoS 産能擴增進展快于預期,使得以 H100 爲代表的高性能 GPU 交貨時間大幅縮短。
産業人士分析,從 2023 年 7 月到年底,台積電積極調整 CoWoS 封裝産能,已逐步擴充并穩定量産,去年 12 月,台積電 CoWoS 月産能增加到 1.4 萬 ~1.5 萬片。
雖然台積電在積極擴産,但隻這一家的産能還是無法滿足市場需求,因此,英偉達已經在 2023 年向台積電以外的專業封測代工廠(OSAT)尋求幫助,主要包括日月光和安靠(Amkor),其中,安靠在 2023 年第四季度已開始提供相關産能,日月光投控旗下矽品也于 2024 年第一季度開始供應 CoWoS 封裝産能。
2024 年,AI 芯片用先進封裝産能依然會供不應求,包括台積電、日月光、安靠、力成、京元電在内的專業封測代工廠,将會在今年擴大資本支出,以布局先進封裝産能。
根據台積電的擴産節奏,預計到今年第四季度,該晶圓代工龍頭的 CoWoS 月産能将大幅擴充到 3.3 萬 ~3.5 萬片。
今年,日月光的資本支出規模将同比增長 40%~50%,其中,65% 的投資用于封裝,特别是先進封裝項目。日月光投控營運長吳田玉表示,今年的先進封裝與測試營收占比會更高,AI 相關先進封裝收入将翻倍,今年相關營收至少增加 2.5 億美元。力成也在擴大先進封裝産能,該公司董事長蔡笃恭表示,下半年将積極擴大資本支出,規模有望達到 100 億元新台币。力成主要布局扇出型基闆封裝(fan out on substrate)技術,整合 ASIC 和 HBM 先進封裝,在 AI 用 HBM 内存方面,力成有望在今年第四季度量産相關産品。爲滿足 CoWoS 封裝後的晶圓測試需求,今年,京元電相關晶圓測試産能将擴充兩倍。
02 競争對手雪上加霜
近些年,全球 AI 核心處理器市場幾乎被英偉達 GPU 壟斷,此次,該公司供貨能力進一步提升,對于各家競争對手來說,真是雪上加霜,有些廠商的日子更難過了,特别是一些對标英偉達産品的創業公司,有的已經接近倒閉。
據 The Information 統計,在北美地區,至少有 12 家 AI 芯片創業公司想從英偉達獨享的生成式 AI 算力紅利中分一杯羹。在這些創業公司中,創辦時間最長的不超過 8 年,有 5 家都是 2022 年創辦的,有 4 家創始成員有谷歌背景。
這 12 家 AI 芯片創業公司,有的定位做訓練,有的主攻推理,有些則更進一步,将其産品定位瞄準特定類型的 AI 模型。推理一直是更受歡迎的選擇,因爲很多客戶使用或微調已經被訓練過的模型,而不是從頭開始構建一個新模型。AI 芯片創業公司 d-Matrix、Etched.ai、Extropic、SiMa.ai、Groq 正在構建專門用于某些模型架構的芯片,如爲 OpenAI 和 Anthropic 的大語言模型提供動力的 Transformer。這些公司認爲,專用芯片比英偉達、Cerebras、Lightmatter、Rain AI、Tenstorrent 等的通用芯片更快、效率更高。
還有幾家創業公司正在開發新 GPU 技術和産品,包括專用的 AI 加速器和針對特定應用優化的定制芯片。如果這些創業公司的技術被證明優于老牌企業,他們可能會成爲颠覆者,但是,從過去幾年的技術和産品發展情況來看,短時間内,要想颠覆英偉達的産品和生态系統,難度非常大,已經有幾家公司支撐不住了,由于它們開發的新技術和産品很難在市場上銷售出去,導緻資金鏈非常緊張。
以英國的 Graphcore 爲例,該公司正在考慮出售給外國買家,據媒報道,Graphcore 一直在與主要科技公司進行談判,因爲它正在尋求資金來彌補日益增長的虧空。2023 年,Graphcore 就曾表示,在銷售額下降 46% 且虧損增加後,它需要新的資金。
03 中國市場緊迫感增加
目前,全球 AI 市場用到的 GPU,先進且用量最大的是 H100,但該産品在巨大的中國大陸市場難以實現大規模銷售。對于英偉達來說,産能問題的解決,可以實現更多訂單,對于中國大陸市場來說,全球市場 GPU 供應量的增加,會進一步增加本土 AI 服務器和應用企業的緊迫感,因爲全球 AI 應用水平會随 GPU 供應量的大幅增加而提升進步速度,在類似于 H100 這樣的主芯片供應受限的情況下,中國市場必須另謀出路,才能保證本土市場 AI 服務器系統和應用水平不掉隊。
在 A800 和 H800 芯片被禁售以後,英偉達又爲中國大陸市場提供了新的方案—— H20、L20 和 L2。但是,在目前這種情況下,中國客戶是否願意大規模采用英偉達這些降級版本 AI 芯片呢?
據報道,自 2023 年 11 月以來,阿裏巴巴和騰訊等互聯網大廠一直在測試英偉達降級版本芯片,這些中國企業已經向英偉達表示,他們計劃在 2024 年訂購的芯片數量将大大低于他們最初的計劃。測試人員強調,與英偉達常規 GPU 相比,需要更多的 H20 芯片來抵消性能差異,從而導緻費用大幅增加。基于此,中國本土設計制造的相關芯片對買家更具吸引力,阿裏巴巴和騰訊等企業正在将更多訂單轉移到本土芯片供應商。
這種采購行爲的轉變在包括百度和字節跳動在内的其它主要芯片買家中也很明顯。據 TrendForce 統計,中國雲計算公司使用的高端 AI 芯片中,約有 80% 來自英偉達,但這一比例在未來 5 年内可能會下降至 50%~60%。
與此同時,百度和阿裏巴巴等中國 CSP 也在積極投資自研 AI 芯片。
百度于 2020 年推出了首款自研的 AI 芯片昆侖芯,并在 2021 年推出第二代,計劃在 2024 年推出第三代。在收購中天微并成立 T-Head Semiconductor(平頭哥)後,阿裏巴巴也開始設計 AI 芯片,代表産品是含光 800。雖然 T-Head 最初與外部公司合作進行 ASIC 芯片設計,但從 2023 年開始,阿裏巴巴将主要依賴内部資源來加強其下一代 ASIC 芯片設計,特别是阿裏雲的 AI 基礎設施。
近些年,華爲、寒武紀、天數智芯等中國本土企業也在潛心研究高性能 AI 芯片,産品力不斷升級。以華爲昇騰 910 爲例,該款芯片采用 7nm 制程,集成了超 496 億個晶體管,可以提供 320TFLOPS 的 FP16 計算速度或 640TOPS 的 INT8 算力,略高于英偉達 A100 的 FP16 計算速度(312TFLOPS,不采用英偉達稀疏技術)。
04 AI 服務器生産和代工的商機
從目前的發展情況來看,2024 年,AI 服務器和相關系統将會加快組裝、生産和應用節奏,TrendForce 認爲,2024 年,全球 AI 服務器數量将超過 160 萬台(包含采用高端 GPU 的 AI 訓練服務器,以及采用中低端 GPU、FPGA、ASIC 的 AI 推理服務器),同比增長 40%,這将爲相關芯片和電子制造代工業務(EMS)帶來更多商機,特别是中國台灣和中國大陸相關廠商,有更多可以挖掘的市場空間。
目前,各大雲服務提供商正在競相布局 LLM 與生成式 AI 應用,如 Google 的 Gemini,Amazon 也在訓練新的 LLM。預計中小語言模型會是 2024 年新興競争領域,許多更爲定制化、符合運算效率的模型将陸續出現,例如 Llama-2、Microsoft Phi-2、Google Gemini Nano 2 等。而随着英偉達 GPU 供應能力的提升,這些 AI 應用面市的速度會加快,對相關服務器生産和代工的需求也會提升。
近期,中國台灣 AI 服務器供應鏈高度關注 AI 芯片供應狀況的變化。供應鏈人士表示,鴻海是英偉達闆卡主要供應商,也是 HGX、DGX 等服務器平台供應商,市占率超過 70%,許多産品甚至獨家供應。鴻海董事長劉揚偉先前公開表示,鴻海 AI 服務器業務接單狀況相當好。
廣達同樣看好今年 AI 服務器出貨,該公司預期,如果 AI 芯片供貨緩解,最快 5 月起,AI 服務器出貨量将明顯提升,下半年将進入出貨爆發期,今年 AI 服務器營收增長幅度将達到兩位數百分比。
據悉,緯創手握英偉達 CoWoS AI 芯片基闆 85% 訂單,也是 AMD 和英特爾 AI 芯片模組、基闆的獨家供應商。緯創表示,今年 AI 相關營收增長幅度将達到三位數百分比。
在中國大陸,AI 服務器出貨量也在快速增長。中商産業研究院發布的《2022-2027 年中國服務器行業需求預測及發展趨勢前瞻報告》顯示,2022 年,AI 服務器市場出貨量約 28.4 萬台,同比增長 25.66%,2023 年約爲 35.4 萬台。中商産業研究院分析師預測,2024 年,中國大陸 AI 服務器出貨量将達到 42.1 萬台。
從全球市場來看,AI 服務器 TOP10 廠商中,中國大陸廠商占據 4 席,其中,浪潮信息是本土最大 AI 服務器廠商。在中國大陸市場,AI 服務器市場集中度較高,排名前三的廠商爲浪潮信息、甯暢和華爲,這三家的市占率總和達 70.40%。另外,新華三的産品也值得關注。
浪潮的代表産品是 NF5688M6,它是爲超大規模數據中心研發的 NVLink AI 服務器,支持 2 個英特爾 Ice Lake CPU 和 8 個英偉達 A800 GPU,單機可提供 5PFlops 的 AI 計算性能。對比核心硬件來看,NF5688M6 采用英偉達中國特供版芯片 A800,在浮點計算能力、顯存帶寬、顯存容量等性能指标上,與先進算力芯片 A100 基本一緻,主要差異在于芯片的數據傳輸速度,約爲 A100 的三分之二。
華爲的 AI 服務器融合了自研加速卡和英特爾 CPU,代表産品是 Atlas 800 推理服務器系列,旗下有型号 3000、3010、9000 和 9010,其中,3000 基于昇騰 310 芯片,3010 基于英特爾 CPU,9000 基于華爲鲲鵬 920+ 昇騰 910 處理器,9010 基于英特爾 CPU+ 華爲昇騰 910 芯片。産品最高擁有 2.24 PFLOPS FP16 的算力。
新華三的 AI 服務器可覆蓋各種訓練負載要求,代表産品包括 R4900 G5、R5300 G5、R5500 G5 等,可分别針對不同訓練負載要求,滿足大小規模的推理 / 訓練任務。軟件層面,該公司通過新華三傲飛 AI/HPC 融合管理平台,提升 AI 作業效率約 32%。
05 結語
2024 年,無論是 AI 芯片提供商,還是 AI 服務器生産和代工廠商,都将迎來更廣闊的商機。
芯片方面,英偉達憑借 AI 用 GPU 的火爆,已經賺得盆滿缽滿。在制造方面,以台積電爲代表的晶圓代工廠和封測廠大力擴增先進封裝産能,将在 2024 年得到回報。
在 AI 服務器生産和代工方面,相關廠商更是商機無限。一般來說,通用服務器的價格是幾千美金 / 台,AI 服務器的價格則達到 10-15 萬美金 / 台,價格提升了将近 20 倍,在供不應求的當下,這麽高的售價還不一定能拿到貨。
高端 AI 服務器的價格就更誇張了,據悉,搭載英偉達 A800 的 AI 服務器價格已經從 120 萬元 / 台漲到了 140 多萬元 / 台,搭載 8 個 H800 的 AI 服務器價格已經漲到了 280 萬元 / 台。