GPU 租用市場越來越玄幻了,價格被打下來的原因,居然可以是天命人閑置的 4090被循環利用了?
最近,一種新型的 GPU 租賃方式開始興起。
它能讓手上有閑置計算卡的人,把資源租給需要的人。
舉個例子,爲了打黑神話買了 4090 的天命人,可以把卡租給煉丹俠們。自己能挂機 " 躺着 " 賺錢,煉丹俠還能以更劃算的價格租算力(4090 隻需每小時 1 塊錢那種)。
距離大範圍算力荒才過去僅僅 1 年,算力租賃市場已經是一番新氣象了。
不僅如此,老牌租賃平台們也紛紛主動降價。海外,H100 價格被卷到每小時 2 美元。
國内情況亦是如此,A100(80GB)租用價低至6.68 元 / 小時,40GB 爲3.28 元 / 時,A800 則是5.98 元 / 小時。
按理說,現在正是 AI 算力需求旺盛的時刻。大型雲廠商打價格戰爲了跑馬圈地還可理解,算力租賃平台價格沒有水漲船高,反而開始降價……
這背後,到底發生了啥啊?
" 白菜價 " 搞定高端算力
先一句話總結,相較于 ChatGPT 元年,AI 算力告急問題總體得到緩解,但是依舊面臨挑戰。
如上變化由算力供需側共同影響而來。
首先在算力供給上,大模型趨勢進一步推動 AI 底層硬件以及基礎設施發展。
國際方面,英偉達這兩年不僅擴大了 AI 計算産品線,更在産能上大幅提升,以滿足暴增的市場需求。
Hopper 架構和 Blackwell 架構均包含 Transformer 引擎,分别推出了 2 款産品供市場選擇,且不同架構之間的代際升級非常明顯。B200 的晶體管數量已達到 2080 億,分别是 H100 的 2.6 倍、A100 的 3.8 倍,後兩者則發布于大模型浪潮之前。
兩個 B200 GPU 與 Grace CPU 結合就成爲 GB200 超級芯片。在标準 1750 億參數 GPT-3 基準測試中,GB200 的性能是 H100 的 7 倍,提供的訓練算力是 H100 的 4 倍。
眼下首批工程版 B200 已經送到 OpenAI 投入使用。據天風國際分析師郭明錤透露,英偉達 Blackwell GB200 四季度的出貨量将在 15 萬塊至 20 萬塊,明年第一季度出貨量将顯著增長 200%-250%,達到 50-55 萬塊。
這同時帶動了全行業的産品叠代升級節奏,AMD、英特爾等爲保持競争力,近兩年也紛紛推出更先進 AI 計算産品。
更具規模的變化體現在算力基建方面。據中國信息通信研究院測算,截至 2023 年底,全球算力基礎設施總規模達到 910EFLOPS,同比增長 40%。
美國、中國算力基礎設施規模位列前兩名,算力全球占比分别爲 32%、26%。
另一方面,算力需求也在近一年内發生變化。
随着開源模型性能達到 GPT-4 水平(如 405B Llama 3、DeepSeek-v2 等),以及中小模型(7B-70B 規模)應用更加成熟,中小企業 / 開發者陸續入場,以及近期趨勢推理 Scaling law 成爲新方向。黃仁勳預測,随着推理鏈的出現,推理的規模預計将迎來千萬乃至十億倍的增長。
種種原因都導緻市場的微調推理需求大幅增加,訓練需求的增長趨勢開始放緩。
相較于訓練,推理階段對硬件的要求沒有那麽高。在實際場景中,往往是用最先進設備進行訓練,上一代産品進行推理。
因此可以看到,大型廠商依舊追捧 H100、B200 等高端 GPU,但是中小企業 / 開發者不再趨之若鹜,轉而關注更具性價比的選擇。
但問題是,算力供需不平衡問題依舊棘手。
宏觀上,《人工智能算力高質量發展評估體系報告》中表示,我國算力市場還面臨供給不足、算力智能水平較低、能源考驗、供應鏈完備性不足等問題。
微觀上,以學術圈爲例," 算力荒 " 還是普遍現象。
今年 5 月,李飛飛在采訪中透露,斯坦福 NLP 實驗室隻有 64 塊 A100。相比于産業界,這個數字不值一提,但在高校圈裏已經是相當富有了。
更普遍的現象是,許多高校實驗室都隻有消費級顯卡,大家還需要排隊使用。實驗經費有限導緻租賃算力也将面臨更多制約。
在這些矛盾下,算力市場開始更加主動、自發提出新型應對措施。
最明顯的迹象莫過于——經典算力平台主動降價 + 新興算力租用模式浮現。
能薅羊毛更能挂機賺錢
今年算力市場最熱門的話題莫過于 " 價格戰 ",這并不局限于賣大模型服務的雲廠商,提供算力租賃的各大平台也是主角。
不同類型的平台降價方式也有所差距。
目前算力租賃平台主要有兩種類型:
算力雲平台
C2C 算力租用平台
前者好比京東,其所有的 GPU 服務器是自營資源,通常在提供算力的同時也保障一系列配套服務,能讓用戶更低門檻、更便利調用算力。該模式下,定價權在運營方自己手裏,今年以來多家平台都在主動降價。
後者好比淘寶,爲機主和用戶提供平台,供雙方進行服務交易。這種模式較爲新興,可以讓有閑置計算資源的機主将 GPU 出租," 挂機賺錢 "。它天生就能提供更具性價比的租賃價格。
不過需要注意,對于算力租賃,價格低隻是考量因素之一,用戶同時關注平台提供的服務能力。
對于前者,用戶更關心平台提供的算力是否足夠劃算、使用是否足夠友好;對于後者,機主和用戶則更在意平台是否靠譜。
更具體的模式分析,來看行業典型案例。
經典算力雲平台中,論誰打價格戰最兇猛,AutoDL 必是其一。
有資曆的煉丹俠們對這個平台應該都不陌生。就是它當年把 3090 的租用價格從 4.5 元 / 小時打到了 1.32 元 / 小時,在用戶這兒是有口皆碑了。
它在 2021 年上線,專注于提供彈性、好用、省錢的 GPU 算力服務。
GPU 總規模在國内同類型平台中位列前茅,提供豐富的 GPU 選擇,包括 A100、A800、V100、4090、3090 等。
它的主要目标用戶包含了高校科研人群以及企業用戶,所以在極具性價比的同時也主要入門友好。
平台支持各種深度學習框架,如 TensorFlow 和 PyTorch,并提供相應的 CUDA 環境,用戶可根據需求選擇合适的鏡像。
具體能力上,兼顧科研、企業需求。主要包括:
用卡彈性:提供容器實例和 API 彈性調度模式,支持千卡級别彈性調度;
團隊管理:支持實驗室、團隊等場景中對多個子賬号管理;
私有雲:支持本地機器免費接入,将 AutoDL 雲上高效管理與使用體驗移植本地;
CodeWithGPU 社區:支持鏡像和模型分享,分享鏡像可獲取收益
付費方面更符合 " 羊毛黨 " 需求,主要提供按秒計費、包卡計費兩種模式。
按量計費模式下,實例開機開始計費,關機結束計費,時長可精确到秒,最低計費 0.01 元。關機所有數據會保留(15 天),支持鏡像保存、文件存儲等。
包年包月爲預留 GPU 模式,支持按日按周按月等租用,價格比按量計費更便宜,長期使用更劃算。
而且隻要注冊,平台就送一個月煉丹會員,認證學生直接升級煉丹會員,認證期間内将一直有效。會員将享有價格優惠。
另一方面,大模型趨勢興起後,C2C(用戶對用戶)模式變得火熱。
矽谷的代表爲 San Francisco Compute,從寂寂無名到成爲黑馬,它僅僅用了半年時間。還拿下了山姆 · 奧特曼弟弟領投的 1200 萬美元種子輪融資,估值達到 7000 萬美元。
國内如今也出現類似趨勢,比如剛剛上線 3 個月的橘皮優,現已和 AutoDL 達成戰略合作。
按照自我定義,橘皮優是一個促進 C2C 雙邊 AI 算力交易的撮合平台。
它的核心目标是通過共享經濟的模式,降低用戶使用 AI 算力的成本,同時讓私有閑置算力被高效應用,推動了算力普惠和綠色低碳。
該平台支持的算力類型包括 GPU、NPU、CPU、ASIC、ARM、RISC-V 等,能夠滿足 AI 訓練、AI 推理、圖像生成以及渲染等任務需求。
相較于 AutoDL,橘皮優提供的算力租賃服務價格更低,适用于對機器配置不敏感的人群。
同時它更加定制化,支持個人的外部鏡像、實例端口靈活。
也可以在該平台上成爲機主對外出租賺外快,支持自助上機,不限制機器和數量。
由于和 AutoDL 達成戰略合作,背後團隊是算力行業老兵,在魚龍混雜的算力市場裏是更加靠譜的選擇。
或許也不用擔心沒人來租,畢竟 AutoDL 靠着性價比優勢,在短短 3 年時間裏形成龐大的用戶基礎。之前大家用卡都是靠搶的。
所以也不免有人好奇,這麽低的價格,它圖啥啊?
其實,AutoDL 技術團隊本身就來自學術圈,從 2017 年開始就在做 GPU 相關服務。這樣的出身背景下,AutoDL 團隊自然更懂 AI 行業痛點,并積累了豐富經驗。
由此也就不難理解 AutoDL 爲何堅持提供量大管飽還劃算的算力資源。
随着 AI 大模型應用落地趨勢繼續,對 AI 算力的需求還會繼續增加。
對于很多科研高校、中小企業而言,算力會成爲研發和落地應用上的第一道門檻。
如今,随着算力租賃市場發展更加完善,模式更加多樣化,使用算力也變得像去食堂打飯一樣——量大管飽還實在。
對于行業而言,這能更大程度緩解算力供需不平衡問題,同時也讓資源實現更高效綠色流轉。
當然,最主要的還是各位煉丹師們可以薅到羊毛,因爲玩黑神話入手 4090 的天命人們也能找到回本的渠道。
最後,附上文中兩個平台的官網,感興趣同學可進一步了解!
AutoDL 官網:https://www.autodl.com
橘皮優官網:https://gpu.pro