3 月 1 日,在連續五天開源日之後,DeepSeek 又來了一個 "One More Thing",并扔下一枚 " 核彈 " ——在分享了其基礎設施裏極爲關鍵的 EP(多專家并行)組件代碼的同時,也首次公開了它的利潤率。根據 DeepSeek 公開的信息計算,它理論上一天的總收入爲 562027 美元,成本利潤率高達 545%。
這是 DeepSeek 對它的 " 盈利能力 " 的最直接的一次回應。自從 DeepSeek R1 成了現象級的話題後,對它模型能力的質疑逐漸消失,但對它的高性價比和模型背後的成本,以及由此帶來的 " 燒錢 " 問題,依然有不少質疑。有矽谷從業者稱,這次公布的數據會再次讓英偉達們徹夜難眠,讓從業者開始新的反思。
而在國内 AI 領域,這次重要的開源帶來的影響則以另一種更加劇烈的形式呈現了出來——它引發了一場兩家中國 AI Infra 公司之間的 " 血案 "。
尤洋與袁進輝的争論
事件的兩個主角,一方是尤洋及其創辦的潞晨科技,另一方是袁進輝及其創立的矽基流動。
先是 DeepSeek 的這篇技術分享在知乎發布後,不少用戶開始 @尤洋,讓他點評。這是因爲此前在 DeepSeek 被各家服務商争相部署的熱潮裏,他是最積極的反對聲音之一。此前尤洋曾在社交平台上計算過部署 DeepSeek 的成本和收益,并得出結論,部署 DeepSeek 并提供服務的 AI Infra 公司,都是在虧錢,并且是 " 月虧四億 "。
他提到:短期内,中國的 MaaS(模型即服務)模式可能是最差的商業模式,大廠相互卷低價和免費,滿血版 DeepSeek R1 每百萬 token(輸出)隻收 16 元。如果每日輸出 1000 億 token,基于 DeepSeek 的服務每月的機器成本是 4.5 億元,虧損 4 億元;用 AMD 芯片月收入 4500 萬元,月機器成本 2.7 億元,這意味着虧損也超過 2 億元。

此次 DeepSeek 的開源周并非要回應某個具體質疑,但其公布的利潤率之高,顯然與這個計算完全相反。人們首先想到了尤洋。尤洋也在四個小時後發文回應,稱 DeepSeek 官方這一計算方法不能用于 MaaS 盈虧評估。在論述中,他延續了 " 基于大模型的 Mass 服務不賺錢 " 的立場。
緊接着,他的潞晨科技宣布将在一周後停供 DeepSeek API。

而另一家 AI Infra 公司矽基流動的創始人袁進輝也在讨論中被很多人提到。在 DeepSeek 春節期間徹底出圈走紅後,矽基流動是國内最早一批行動起來提供部署服務,承接住 DeepSeek 帶來的需求的公司之一。而流量之大,讓這家公司不僅正式出圈,也在過程中出現一些争議,包括它此前提供的推薦 " 反傭 " 式的優惠被快速薅羊毛,收費服務與免費服務的調整等。但本質上,袁進輝和矽基流動是相信快速跟進并提供 DeepSeek 的 MaaS 服務是此刻最正确的決策。
因此尤洋當初的批評也就指向了這家同行公司。彼時,袁進輝與尤洋就已經有過一輪 " 交鋒 ",前者認爲虧損 4 億的計算方法有誤,因爲使用了錯誤的架構進行估計。而尤洋直接回應:" 弄 400 台機器,看看每日能否輸出 1000 億滿血 DeepSeek R1 token,讓我看看。"
而這次 DeepSeek 官方直接 " 讓人看到 " 了這是可行的。袁進輝也在 DeepSeek 文章發布一小時後就火速評論道," 又颠覆了很多人的認知 ",他認爲 " 很多供應商做不到這個水平 ","MaaS 能否成功,關鍵在于技術實力和用戶基礎。"

" 誰做不到,誰就是技不如人 " 的含義,盡在不言中。
而緊接着更戲劇化的隔空對決開始了。尤洋随後直接發了一篇直接批評矽基流動這家公司的文章。《坑人的矽基流動》(現已删除)一文将炮火從技術争論轉向直接對對方的攻擊。此時話題核心也從 DeepSeek 的利潤,轉向了兩家公司之間的恩怨情仇。袁進輝也第一時間回應,一方面強調了矽基流動一系列動作背後的思路,另一方面直接抖出 " 潞晨代碼抄襲 " 的舊案。但這兩個顯得都有些沖動的争論,後都已删除。
這些争論也在知乎等技術人員聚集的平台上引發了廣泛的延展讨論,AI Infra 公司難得的自己變成了行業熱議話題的主角。
到底誰算的對?
在這場争論中,到底如何計算,以及由不同計算方法而得出的 AI Infra 是否是巨虧的生意,是第一個核心議題。
在上周的連續五天,DeepSeek 剛剛發布了五項核心技術,涵蓋計算優化、通信加速和存儲架構等領域,幾乎将自己的核心 AI Infra 技術全部公布開來,大幅提升了大模型訓推硬件效率。而在 DeepSeek 的這篇《DeepSeek-V3/R1 推理系統概覽》文章裏,又進一步揭示了這些技術和部分是如何組裝聯系在一起的,相當于一個串聯式的總結内容。據介紹,DeepSeek 使用了大規模跨節點專家并行(EP)的方法,并通過一系列技術策略,最大程度地優化了大模型推理系統,實現了驚人的性能和效率。
在文章的末尾,DeepSeek 以理論成本和利潤計算作爲句号,爲這次以開源降本爲核心目的的開源周,畫下了一個完美的句号:假定 GPU 租賃成本爲 2 美元 / 小時,總成本爲 87072 美元 / 天;如果所有 tokens 全部按照 DeepSeek R1 的定價計算,理論上一天的總收入爲 562027 美元 / 天,成本利潤率爲 545%。
其中,DeepSeek 的計算方式如下:

這裏 DeepSeek 說的很清楚:
一成本隻核算了等量租用 GPU 的費用,硬盤、存儲、内存 CPU、人力運維都被沒有被計算;
二收入卻将 APP、網頁、API 消耗的所有 Token(to C 和 to B 的總消耗量)加在了一起,均按照 API(to B)的價格計算,理論上一天成本利潤率是 545%。
事實上,這的确是一個典型的量化風格的 " 最大可能性 " 推算,我們都知道,DeepSeek 的 APP 和網頁是完全免費的,同時也并不保證流暢的用戶體驗。但是假如 DeepSeek 向用戶按照 API 的價格收費,他的收入潛力可以達到上述金額。
也就是說,DeepSeek 計算的是" 我作爲一個大模型廠商,我要是想,我可以賺到這麽錢。"
所以,從這個角度來看,後來尤洋認爲 " 這篇文章中的數據對計算 MaaS 成本沒有任何參考價值 ",也不無道理。
畢竟 MaaS 是典型的企業服務,而企業的第一準求并不是性能而是穩定,而爲了保證穩定性,雲廠商的特點就是彈性伸縮、按需取用,所以必須準備足夠大冗餘。
DeepSeek 算的是一筆 " 過去的賬 ",而 MaaS 平台如果要保證未來的穩定,尤洋也給出了預備比例,必須時時刻刻有 5 倍的機器專門爲了滿足客戶的需求,這裏我們需要考慮一旦部署的集群過大、使用效率、運費、用電的成本将指數級的上升。

尤其在如今各家 MaaS 平台用戶的使用數量都稀少,沒有辦法做到削峰填谷資源高效利用的前提下,MaaS 廠商是很有可能虧本的。
總結一下,理論上(非常理想化,一人吃飽全家不餓的前提下),DeepSeek 的利潤率可以達到,但考慮到實際的使用情況和大規模之後的優化成本,就很有可能虧錢了。
那麽問題又來了,爲什麽部署 DeepSeek 虧本,而 DeepSeek 自己的推理卻賺錢?
這個問題的答案藏在袁進輝的回複中:現在很多供應商做不到這個水平,主要是 V3/R1 架構和其他主流模型的差别太大了,MaaS 廠商需要按照 DeepSeek 的報告調,才能達到最好的效率。

這裏需要補充一個前提是,過去的雲廠商所建立的 IaaS 層是以 CPU 爲核心的服務器集群,而高效的推理需要以 GPU 爲核心完成并行計算。原本的 MaaS 用來生成問題不大,但 R1/V3 所采用的稀疏架構,對雲來說是一個新的挑戰,需要特調以進行适配。
MaaS 廠商們低估了 DeepSeek 模型架構的複雜性,用老一套來支持新模型,顯然出現了性能不足的陣痛。而大模型一體機由于可以直接改造到硬件層,能夠根據 DeepSeek 來專門定制型号,因此比 MaaS 提供的模型的性能和穩定性都更高,近期,矽基流動也與華爲昆侖展開了合作,推出 DeepSeek 一體機,嘗試解決推理性能不足的問題。
但 DeepSeek 不僅深谙自己的模型架構,做了軟件算法層的調優,甚至将算力壓縮到了優化芯片層,以 " 榨幹 " 每一滴性能。
幸而在剛剛過去的開源周裏,DeepSeek 開源了如何提高推理效率的 5 個模塊,理論上隻要跟着做,接下來其他 MaaS 廠商也能複現出來。
所以,AI Infra 公司們的未來在哪裏?
這些争論背後,AI Infra 公司們再次被大衆注意到。作爲提供底層基礎設施服務的公司,它們此前從來不是外界關注的焦點,但 DeepSeek 後,由于海量的需求無法由 DeepSeek 自己來滿足,AI Infra 公司得到了一次直接面向海量廣泛用戶的機會,也因此出圈。
但随着 DeepSeek 在它自己 AI Infra 研究上的連續開源,很多人意識到,獨立的 AI Infra 公司似乎再次遇到了嚴重的 " 存在感危機 "。
當 DeepSeek 不僅造出了最強的模型,同時也有最強的基礎設施技術時,它似乎就變成了一個新的規則制定者:如果獨立的公司想要提供部署 DeepSeek 模型的 AI Infra 生意,你就要使用 DeepSeek 的技術方案,不僅需要卷到極緻,來快速複現 DeepSeek 做出的東西,還要在此基礎上,去做些 DeepSeek 不做的諸如幫助開發者、幫助企業一對一的做落地服務等,進而來承載它服務不到,或目前沒有作爲重點去服務的用戶們,從中盡可能的做大用戶規模,來攤薄成本,讓自己的利潤率也無限接近 DeepSeek 官方算出來的那天花闆的比例,這才有可能 " 存活 " 下去。
這種 "DeepSeek 吃肉,其他大家比賽誰能做喝到最多湯的那一個 " 的格局是否就是 AI Infra 的未來?這可能才是這場争論背後對行業真正重要的話題。
袁進輝也就此話題回複了矽星人,他認爲這樣的未來是否會發生,關鍵的一個變量就是開源。" 如果模型一家獨大,而模型廠商又想吃這塊蛋糕,的确其它各方就有壓力,尤其如果模型是閉源的,就像 OpenAI 這樣,就會更是如此。" 他說。
" 但當模型開源後,就要看外界有沒有機會把 infra 或芯片的能力做的超過模型廠。"
而另一個變量則是這個劇烈變革的技術周期本身,它事實上讓曾經分工比較明晰的不同技術角色的公司,競争界限變得模糊。從 DeepSeek 的部署熱潮裏就能體會到——從 AI Infra 公司,到模型公司再到芯片公司,都參與了進來,提供着相似的服務,搶奪同樣的市場。
" 今天模型,芯片,infra 其實都是半成品,彼此的關系是又合作又競争,最終大家都要角逐類似 cloud 的位置。" 袁進輝對矽星人說。
在這場競争裏,AI Infra 不是最有優勢的那一個,但另一方面,它事實上也擁有了一次從沒有過的機會,從一個不太被注意的角落終于變成了焦點。在今天這個節點,是否壓上 " 身家性命 " 和對自己技術工程能力的信心去賭一把未來 " 下一代雲 " 的機會,會變成區分這些公司的關鍵決定。
矽星人也向尤洋提出關于 AI Infra 的未來走向的問題,他回複稱,目前先不接受訪談了。