在席卷全球的 AI 熱潮中,一個不容忽視的潛在阻力是算力的不足。算力是 AI 發展的基礎設施,AI 訓練需要将數據集進行重複多輪處理,算力的大小代表着對數據處理能力的強弱。
據 OpenAI 測算,2012 年開始,全球 AI 訓練所用的計算量呈現指數增長,平均每 3.43 個月便會翻一倍,目前計算量已擴大 30 萬倍,遠超算力增長速度。随着百度、360、華爲等公司紛紛入局 AI 領域,國内廠商對算力的需求将迎來井噴。
綜合 OpenAI 的研究經驗,以及中國企業大模型的研發進度等因素,廣發證券分析師劉雪峰等對國内 AI 大模型的訓練和推理階段算力需求,以及相應的成本進行了測算。
算力需求
首先,分析師根據 GPT-3 的數據測算了國内 AI 大模型訓練和推理所需的 AI 服務器需求。
分析師認爲:
根據商湯招股說明書的數據,GPT-3 的大模型的所需要訓練 355 個 GPU- 年。在當前各家公司推出 AI 大模型意願較強的背景下,我們認爲科技公司用于訓練 AI 大模型的時間爲 1 個月,因此其需要訓練 AI 大模型的 AI 加速卡的數量爲 4260 個。
我們認爲,AI 大模型有望成爲各科技廠商競争的關鍵領域,因此假設國内有意願開發 AI 大模型的公司有 10 個,則由于 AI 大模型訓練而新增的 AI 加速卡需求空間爲 4.3 萬個,國内由于 AI 大模型訓練而新增的 AI 服務器的需求空間約爲 5325 台(本文均假設單台 AI 服務器搭載 8 個 AI 加速卡)。
根據英偉達官網的數據,A100 針對于 BERT 類的 AI 大模型可實現每秒推理 1757 次,因此可假設單片 A100 用于 AI 大模型每秒生成 1757 個單詞,與單次客戶需要生成的内容數量相當。
截止 2023 年 3 月 27 日,百度 " 文心一言 " 已收到 12 萬家企業申請測試。我們預計,國産 " 類 ChatGPT" 的訪客量規模較爲龐大。
2023 年 3 月 29 日,在 "2023 數字安全與發展高峰論壇 " 上,三六零公司現場演示了 360 大語言模型在 360 浏覽器上的應用。分析師認爲,内容生成類應用已成爲各科技廠商開發 AI 大模型積極探索的方向,因此假設國内未來開發并應用 " 類 ChatGPT"AI 大模型的數量爲 10 個。針對不同情境分析師進行了以下假設:
國産 " 類 ChatGPT" 的定位是僅給注冊企業内部使用,則假設每天訪問量爲 5000 萬人次,每人與 ChatGPT 對話 5 次,由此測算下來,由于 AI 大模型推理而新增的 AI 加速卡需求空間爲 4.3 萬個,新增的 AI 服務器需求空間爲 5425 台。
國産 " 類 ChatGPT" 的定位是面向個人用戶開放使用,則分别假設每天訪問量爲 1 億或 3 億人次,每人與 ChatGPT 對話 5 次,由此測算下來,由于 AI 大模型推理而新增的 AI 加速卡需求空間爲 8.7 萬或 26.0 萬個,新增的 AI 服務器需求空間爲 1.1 萬或 3.3 萬台。
因此,樂觀假設下,國内 AI 大模型在訓練與推理階段或将産生相當于 1.1 萬台或 3.8 萬台高端 AI 服務器的算力需求。
成本測算
此外,分析師強調,多模态大模型是 AI 大模型的發展方向,應用前景廣闊。今年以來,全球多家科技廠商陸續發布多模态大模型,如谷歌的 PaLM-E 大模型、OpenAI 的 GPT-4 大模型以及百度的 " 文心一言 " 大模型。
相較于自然語言類模型,多模态模型在訓練階段融合了文字、圖像、三維物體等多維度數據的訓練,可交互的信息類型較多,通用性得到了大大增強。分析師參考 OpenAI 和百度的 AI 大模型的收費标準後,對各行業用戶用于生成類任務的成本進行了以下假設:
生成文本的價格爲 0.003 美元 /1000tokens,相當于 0.02 元人民币 /1000tokens(參考彙率:1 美元 =6.88 元人民币)。Tokens 是包括了單詞、标點符号在内的字符,因此可以簡單理解爲單個文字。
生成圖片的價格爲 0.02 美元 / 張,相當于 0.15 元人民币 / 張。
多模态大模型 API 開放後,各行業用戶用于内容生成類任務的使用成本敏感性分析:基于以上假設條件,我們對各行業用戶調用多模态大模型的 API 用于内容生成任務的成本做關于文本生成量和圖片生成量的敏感性分析。
我們預計中短期内,基于多模态大模型的單日調用量的範圍預計在 5000 萬人次到 3 億人次之間。假設每天每人生成文本内容 5 次,每次生成文本内容爲 1000 個 tokens,則生成文本數量的範圍預計在 2.5 千億到 15 千億個 tokens 之間。
假設每天每人生成圖片 5 張,則生成圖片的數量範圍預計在 2.5 億張 -15 億張。由此,我們測算出,各行業用戶調用多模态大模型的 API 用于内容生成任務的成本如下表所示。
分析師也強調,AI 大模型技術仍處于發展早期,技術叠代的節奏和方向處于快速變化中,在 AI 算力需求測算中,也需考慮由于算法優化導緻 AI 模型消耗算力成本降低的因素。考慮到軟件優化帶來的降本提效因素,實際硬件需求和算力成本可能較此前測算的數值較低一些。
綜上,分析師指出,在暫不考慮軟件層面算法優化帶來的模型消耗算力成本下降的前提下,國内大模型在訓練與推理階段或将産生相當于 1.1 萬台或 3.8 萬台(樂觀假設下)高端 AI 服務器的算力需求,以單片 A100 售價 10 萬元人民币、AI 加速卡價值量占服務器整機約 70% 計算,則對應約 126 億元(人民币)或 434 億元增量 AI 服務器市場規模。
分析師預計,前述 AI 服務器的增量需求或将在 1-3 年的維度内逐步落地。
本文主要觀點來自廣發證券分析師劉雪峰(執業:S0260514030002)等發布的報告《國内 AI 大模型的訓練和推理階段算力需求測算》,有删節