圖片來源 @視覺中國
钛媒體注:本文來源于微信公衆号中國企業家雜志(ID:iceo-com-cn),作者 | 趙建凱,編輯|李薇,钛媒體經授權發布。
微軟将在下個月(11 月 14 日)的年度技術大會上,正式推出自己的首款 AI 芯片。
這款專門爲 AI 研發設計的芯片,在功能上與英偉達的 GPU 芯片(H100)類似,都是專爲訓練、運行大語言模型的數據中心服務器而設計的。
目前微軟的數據中心服務器中使用的正是英偉達的 GPU 芯片。微軟推出這款 AI 芯片的目的,就在于盡早擺脫對英偉達GPU 的依賴性。
因爲英偉達GPU 高昂的價格,已讓微軟難以承擔。按照投入産出比(ROI)來計算,微軟的生成式 AI 産品已出現嚴重虧損。
随着微軟這款 AI 芯片的正式發布,也會把自己與 OpenAI 之間的競争,由以前的遮遮掩掩、猶抱琵琶半遮面,徹底公開化,變得更爲正面和直接。
微軟生成式 AI 産品虧損
GitHub Copilot 是微軟的第一款生成式 AI 産品(于 2022 年推出),可以幫助開發者編寫、調優、轉換程序代碼。由于大大縮短了開發者的編程時間,現在已經擁有超過 150 萬的用戶,其中有約一半的用戶直接就在 Copilot 上編程。
微軟向每位個人用戶每月收取 10 美元的費用,企業版本則是每個賬戶每月 20 美元。GitHub Copilot 爲微軟帶來的年收入已經超過了 1 億美元。
但生成式 AI 大模型的高成本,即便讓年收入超過 2000 億美元的微軟,承擔起來都頗爲艱難。來自 150 萬用戶每人每月 10 美元的 Copilot 服務費,難以支撐 Copilot 運行的高成本。
有知情人士透露,在今年年初,微軟Copilot 平均每位用戶每月帶來的虧損超過 20 美元,有的用戶甚至造成了最高達到 80 美元的虧損。
造成虧損的原因是高成本,而造成高成本的一個關鍵因素就是英偉達的 GPU 芯片。
通常,像微軟這樣的 AI 巨頭都通過數據中心訓練、運行各自的大模型,并在雲端向用戶交付(訂閱付費)AI 産品。OpenAI 的 ChatGPT 也是在微軟的 Azure 雲上訓練、運行并交付。
而無論是微軟還是 OpenAI 都一緻認爲,在大模型的訓練與運行中,如果完全依賴英偉達的 GPU 芯片,所帶來的成本 " 高得令人望而卻步 "。
因爲要做專門的 AI 運算,這些數據中心裏的服務器大多裝配的是英偉達的 GPU 芯片,8 張這樣的 GPU,價格在 20 萬美元左右。OpenAI 的 ChatGPT 就是因爲依靠這些昂貴的英偉達芯片,在今年年初時每天的運營成本高達約 70 萬美元。
如果把自己的 AI 大模型都部署在 Bing、Office 365、GitHub 這些産品中,微軟需要投入高達數百億美元的硬件基礎設施成本,其中 AI 芯片占大比例。
爲了 " 彌補 " 這種投入與産出之間的差距,包括微軟在内的各路 AI 玩家使盡渾身解數。微軟、谷歌都謀劃着如何提高 AI 産品的定價,Zoom 推出簡化版本的 AI 産品,Adobe 公司則通過限制每月用戶量、根據用戶的實際使用情況再具體收費。
自研芯片、提高定價……這些不是辦法的辦法背後,是 AI 商業化期望度過高,但商業化模式至今仍模糊不清的現實窘境。
現在的生成式 AI 商業化,并不能套用曾幫助過谷歌、亞馬遜、Facebook 在各自領取占據獨有優勢的規模化網絡效應,并不是用的人越多,成本就越低。
生成式 AI 産品的每一次使用,幾乎都需要單獨調用一次産品背後的複雜計算。用戶越多、使用的越多,支持這些計算背後的硬件基礎設施成本費用就越高,而固定費用(率)的服務費自然難以把這些抵消高成本。
英偉達" 咄咄逼人 "
每一個言必稱擁有 AI 大模型的公司 CEO,也在無時無刻都在抱怨無法獲得足夠多的英偉達GPU 芯片。這些芯片被優先部署在英偉達大客戶微軟、亞馬遜、谷歌的數據中心服務器上。
OpenAI 的 ChatGPT 引發的生成式 AI 浪潮,讓各家大小公司對 GPU 芯片的需求陡增,從而把英偉達推向了前所未有的高度——除了與客戶已達成了價值數百億美元的新訂單,英偉達的市值超過 1 萬億美元。
坊間甚至有人說,英偉達這個淘金浪潮中賣鏟子的人,現在卻想要 " 鏟平 " 淘金者。
英偉達曾要求租用自己的雲服務商大客戶數據中心裏部署 GPU 芯片的服務器,轉手再給到大客戶的競争對手去使用——微軟、谷歌、甲骨文已同意了這個 " 不平等提議 ",亞馬遜 AWS 沒有同意。
此外,在把自己的芯片 " 恩賜 " 給初創雲服務公司時,英偉達也曾要求這些初創雲服務公司把自己的雲客戶 " 介紹 " 給英偉達認識。
英偉達此舉意在順着 "GPU 芯片—服務器—數據中心—雲端 " 這個路徑,去觸達更多的企業級用戶,與之建立更緊密的客戶關系,最終是爲了銷售自己的 AI 相關軟件。這些軟件有的是專門用于幫助企業客戶管理開發大型數據集,與微軟的類似産品形成了直接競争。
目前,使用英偉達AI 軟件來構建大模型的公司已經有 Adobe、Getty Images、Shutterstock。
在英偉達最新的季度财報中,這家咄咄逼人的公司稱,向那些涉及到開發 AI 或 VR 應用的公司銷售軟件,可能會帶來 3000 億美元的潛在營收。
除了這種軟件 " 批發 " 模式,英偉達也還做 " 私人定制 "。通過(合作夥伴、自己的)雲端爲一些業務專業性比較強的客戶公司,提供根據業務定制的生成式預訓練模型(GPT),這類客戶中包括生物制藥公司 Amgen、保險公司 CCC Intelligence Solutions。
英偉達對微軟的威脅,不僅僅是眼皮底下卧榻之側的高成本芯片,更有關系到将來業務增長的 AI 商業化營收。
生成式 AI 競争下半場
在市場研究公司 Gartner 今年 9 月初發布的 "2023 年新興技術成熟度曲線 " 中,生成式 AI 目前正處于期望膨脹期," 其發展前景還存在很大的不确定性。"Gartner 研究副總裁 Melissa Davis 如此判斷。
2023 年新興技術成熟度曲線。來源:Gartner
在業内人士看來,類似 OpenAI、Anthropic 這類生成式 AI 初創公司的高估值上漲,正反映了市場對 AI 的期望高度膨脹。預測未來企業會對生成式 AI 投入的成本進行更嚴格考量,在 2024 年,企業對生成式 AI 的投資可能會減少。
推出了 GPT-4 的 OpenAI 在 9 月底與外部投資者讨論股票出售時,将自己的估值界定在 800 億 ~900 億美元之間,是今年年初的三倍。
OpenAI 的最直接競争對手 Anthropic 在獲得亞馬遜 40 億美元的投資後,計劃以 200 億 ~300 億美元的估值,再從谷歌和其他投資人融資 20 億美元。在今年 3 月份,其估值還僅爲 40 億美元。
事實上,Anthropic 是從 OpenAI" 衍生出來 " 的。2019 年,OpenAI 進行了組織架構調整,在已有的架構内成立了一家 " 有限盈利公司 ",把營業利潤目标置于技術研究之上,從而導緻了一批研究人員出走後創立了 Anthropic。
然而," 殊途同歸 ",兩家公司在今年對投資方報出高估值的充分理由,都是對自己的商業化營收信心。
Anthropic 預計到今年年底自己的收入會達到 2 億美元。而作爲先行者的 OpenAI 已開始真正賺錢了。
GPT-4 發布後,OpenAI 現在的年化收入爲 10 億美元,而在發布 ChatGPT(2022 年 11 月份)的前一年,這個數字隻有 2800 萬美元。
微軟AI 商業化産品的高額虧損、OpenAI 與 Anthropic 對營收增長的高度預期,以及英偉達借勢加緊拓展自己的商業邊界,在這些表面的底層其實是 AI 大模型競争格局的變化。
由之前 " 芯片—算法—訓練數據 " 三位一體上,各個生産投入(生産工具、生産資料)層面的拼蠻力、大力出奇迹,變成如今 AI 大模型商業化落地的急迫形勢,促使各路玩家更加追求投入産出比,即芯片功效比、模型算法優化,以及産品商業化應用時的 10 億級用戶量。
對于 " 十億級用戶量 ",先發優勢也許能起到關鍵作用。
雖然OpenAI 在首次推出 ChatGPT 後的兩個月内,就吸引了 1 億用戶,但微軟、谷歌、亞馬遜已經在在線辦公、搜索、購物的垂直領域中早早就積累了 10 億級用戶量。高估值的 OpenAI 與 Anthropic 還要再加一把勁。