在過去一周的開源周上,DeepSeek" 五天五連炸 " 讓市場拍案叫絕。而就當外界以爲這場盛宴即将落下帷幕之時,DeepSeek 拿出了更令人震驚的 " 彩蛋 " ——成本利潤率高達 545%,V3/R1 推理系統理論日利潤達到 346 萬元人民币。
而在市場爲這超高 " 暴利 " 連連感歎的同時,也更關心這幾個問題:如何解讀 545% 這個利潤率?是否是對算力的核彈?這對雲産業鏈意味着什麽?這對大模型同行意味着什麽?這對生态又意味着什麽?數位科技博主的主要觀點如下:
利潤率 545% 目前仍是理論收益,DeepSeek R1 模型的利潤率約爲 85%。而如果按照 V3 的定價,利潤率會降至 70% 左右。即便如此,這個數字仍然非常可觀。
而對算力産業鏈來說,DeepSeek 的案例證明,即使在硬件條件相對有限的情況下(使用 H800),通過極緻的 infra 優化,也能實現極高的算力利用率和性能。
但是關于 DeepSeek 的創新是否會減少對算力的需求這一點,外界仍有不少分歧。知名投資人段永平贊同此前英偉達 CEO 黃仁勳的觀點,認爲算力需求會持續增長。但是也有國外科技博主表示,DeepSeek 已經把英偉達 " 擊倒 ",按照 DeepSeek 目前對算力的超高利用率來看,全球的 AI 需求都沒有這麽多。
此外 DeepSeek 的案例證明,讓 AI 雲計算與傳統雲計算的相似性更加明顯。AI 雲計算也将同樣面臨着 " 低峰期閑置率 " 和 " 高峰期穩定性 " 的挑戰。
DeepSeek 的開源和技術披露,爲整個行業樹立了新的标杆。同行可能要面臨更大的競争壓力,新一輪價格戰正在路上。
對于行業生态來說,DeepSeek 通過開源技術和輸出,将吸引業界在其基礎上構建 to B 和 to C 業務,形成完整的産業上下遊。
一、如何解讀這個利潤率?
首先需要明确的是,DeepSeek 官方公布的 545% 利潤率是基于特定條件下的 " 理論 " 計算,即假設所有 tokens 都按照 R1 模型的定價計算,且未考慮 V3 的更低定價、免費服務占比以及夜間折扣等因素。實際上,根據 DeepSeek 官方的說法,他們真實的利潤率遠沒有這麽誇張。
按照科技博主 180K 的解讀,DeepSeek R1 模型的利潤率約爲 85%,而如果按照 V3 的定價,利潤率會降至 70% 左右。即便如此,這個數字仍然非常可觀。
180K 表示,這一點可以通過對比 Anthropic 的利潤率來更深入地理解。根據 TD Cowen 的拆解,Anthropic 2024 年的利潤率預計爲 61%。如果按照 DeepSeek 的口徑,并考慮 AWS 的雲計算利潤率(假設爲 25%-40%),Anthropic 的利潤率可以達到 74%。極端情況下,如果假設 AWS 的利潤率爲 50%,Anthropic 的利潤率甚至可以達到 85%,與 DeepSeek 的 R1 模型相當。
這說明,盡管 OpenAI 和 Anthropic 在成本控制上可能不如 DeepSeek 極緻,但它們憑借更高的定價和更慷慨的客戶(至少目前如此),也能實現類似的高利潤率。需要注意的是,OpenAI 經常被報道 " 虧損 ",這是因爲在融資時,投資者通常關注的是财務會計上的盈虧,而非大模型租賃角度的理論成本,模型訓練成本、數據授權費用、人員和宣傳等運營支出通常也被計入。
二、是否是對算力的核彈?
DeepSeek 的案例證明,即使在硬件條件相對有限的情況下(使用 H800),通過極緻的 infra 優化,也能實現極高的算力利用率和性能,這對整個算力産業鏈影響巨大:
首先,科技博主 180K 認爲," 有效算力 " 的重要性将凸顯。行業将更加關注 " 有效算力 "(算力 x 算力利用率),而不僅僅是單純的算力堆砌。
并且國産芯片的上限有望提升。如果 H800 都能跑出如此效果,那麽通過 infra 優化,國産芯片的性能上限或許能進一步提高。
另外,科技博主信息平權認爲," 傑文斯悖論 " 持續生效。算力效率的提升并不會減少算力需求,反而會刺激更多應用場景的出現,推動算力需求的持續增長。正如巴克萊銀行在去年 6 月的預測,到 2026 年,業界的資本支出足以支撐 "12000+ 個 ChatGPT 級别的應用 "。

而且短期内算力需求邏輯可能受到質疑。一些企業,特别是海外大廠的 CIO 或 CFO,可能會面臨來自投資人和老闆的壓力,被要求解釋爲什麽他們的 ROI 遠低于 DeepSeek。
知名投資人段永平也在雪球上表示,DeepSeek 的經驗的确證明了模型預訓練階段較低的算力也可以達成比較好的訓練結果。而且他也贊同黃仁勳的說法,認爲 DeepSeek 的創新不會減少對算力的需求。

此前黃仁勳曾在 2 月的訪談中表示,認爲市場對 DeepSeek 的理解完全搞反了。他表示,R1 的出現并非意味着市場不再需要算力資源,而是激發了市場對更高效 AI 模型的追求,從而推動整個行業的發展。
但是國外科技博主 Zephyr 則認爲,DeepSeek 已經将英偉達 " 擊倒 "。而且按照 DeepSeek 目前對算力的超高利用率來看,滿足全球的 AI 需求綽綽有餘。
DeepSeek 已經将英偉達 " 擊倒 "。

我之所以這麽說,是因爲 DeepSeek 目前每天在 300 台 H800 節點(共 2400 張 H800)上處理 6000 億 個 token,并輸出 1500 億 個 token。
如果算力擴大 100 倍(即 24 萬張 H800),每天就能處理 60 萬億 個 token,并輸出 15 萬億 個 token。
但全球的 AI 需求并沒有這麽高。

三、對雲産業鏈意味着什麽?
DeepSeek 的成功案例,讓 AI 雲計算與傳統雲計算的相似性更加明顯。AI 雲計算也将同樣面臨着 " 低峰期閑置率 " 和 " 高峰期穩定性 " 的挑戰。
科技博主 180K 認爲,雲計算的規模效應會更加顯著。DeepSeek 的實踐表明,大規模集群和高并發利用率能顯著降低成本。用戶數量的正外部性更加明顯,即用戶越多,平抑波動的能力越強,算力冗餘需求越低。
雲廠商的競争優勢可能發生變化。擁有自身業務的雲廠商(如阿裏、騰訊、蘋果等)可能比沒有自身業務的雲廠商更具成本優勢,因爲它們可以将推理集群作爲所有業務的底座,實現更大的規模效應。
而且雲計算的利潤率有提升空間。DeepSeek 的案例表明,在 AI 時代,通過極緻的 infra 優化,雲計算的利潤率有進一步提升的潛力。
此外,私有雲部署的吸引力可能下降。超稀疏的 MoE 模型可能并不适合個人或 " 半桶水 " 的企業部署,小規模 GPU 部署的成本可能遠高于大廠。這可能導緻更多企業選擇公有雲或混合雲模式。
普通雲計算 /AI 應用需要爲高強度用戶并發預留更多空間。用戶對 DeepSeek 的 " 服務器繁忙 " 有較高的容忍度,但對于其他應用則不然。這可能導緻普通雲計算 /AI 應用的利潤率進一步下降。
四、對大模型同行意味着什麽?
DeepSeek 的開源和技術披露,爲整個行業樹立了新的标杆。
科技博主信息平權認爲,DeepSeek 的案例表明推理成本的 " 底線 " 被大幅拉低,可以遠低于之前的預期。而且新一輪價格戰可能爆發,同行們将面臨更大的降價壓力以保持競争力。
并且 DeepSeek 爲所有推理團隊提供了明确的優化路徑和目标,後續壓力會加大。
另外在這種情況下,OpenAI 的高價訂閱模式也将面臨挑戰,每月 200 美元的高昂訂閱費有些尴尬。
五、對生态意味着什麽?
DeepSeek 的戰略是專注于基礎模型和前沿創新,通過開源技術和輸出,吸引業界在其基礎上構建 to B 和 to C 業務,形成完整的産業上下遊。
科技博主極客公園表示,生态合作夥伴的盈利空間增大。雲平台和上下遊通過部署 DeepSeek 的服務,理論上可以獲得很高的收益和利潤率。
展望後續生态,模型架構的差異化可能成爲競争關鍵。因爲 DeepSeek V3/R1 的架構與主流模型有較大差異,這要求供應商進行适配,開發難度較高。
而且 DeepSeek 的開源舉措,降低了社區複現其推理系統的難度,有利于生态的繁榮。
科技博主 180K 則表示,整個行業可能将開始卷 Infra。某種程度上,Infra 的重要性在提高,估值也可以提升。
總而言之,DeepSeek 的超高利潤率,不僅是一個數字上的奇迹,更是對整個 AI 行業的一次深刻啓示。它揭示了 infra 優化的巨大潛力,推動了算力、雲、大模型以及生态的變革,預示着一個更加高效、低成本、競争激烈的 AI 時代即将到來。