對話 | 張鵬
編輯 | 黎詩韻、鄭玄
在「文心一言」放開後的第 24 個小時,沈抖進到後台看了下數據,發現文心一言回答了用戶「3342 萬個」問題,這個數字超出了他的預期。
兩天後,沈抖和包括我本人在内的幾名媒體人坐在一起聊起這件事時說,「我們本來也覺得看熱鬧的人少了,但沒想到用戶的熱情未減。」
9 月,在中國大模型熱潮持續了整整半年之際,普通人終于有機會上手。
8 月 31 日起,包括「文心一言」在内的多款大模型陸續通過備案,正式對公衆開放。這一消息不僅讓用戶雀躍嘗試,也引發了企業的熱情回應。沈抖說,在文心一言開放當天,在百度智能雲千帆大模型平台上,日活企業數增長超過 40%。——後者是百度面向企業端推出的大模型開發與管理平台。
在大模型時代,百度希望在同一時間線,推動個人和企業用上大模型。從宏觀角度來說,這有利于大模型這項前沿技術的普及。從公司角度來說,這有助于百度自己做生意。盡管 C 端用戶的商業價值未能立刻顯現,但 B 端客戶的商業價值則直接體現爲模型 API 調度費、以及雲計算收入。
去年 5 月,已經掌管百度移動生态(MEG)多年的沈抖,被委以百度智能雲事業群(ACG)總裁這一重職。集團對他的期待是,抓住 AIGC 時代的機遇,把智能雲做成百度第二增長曲線。
但沈抖面對的狀況卻非常棘手。百度并不是中國最大的雲計算廠商,隻是在用于 AI 相關服務的公有雲上排名領先。當時,沈抖也希望用 AI 帶動整個雲服務增長,無奈當時的 AI 能力太「碎片化」,無法擺脫服務成本高、難以規模化、利潤微薄的現狀。
但幾個月後,大模型時代到來。從競争格局上看,過去以 IaaS(基礎設施即服務)和 PaaS(平台即服務)爲主的基礎雲服務,正在讓渡于以 AI 爲主的 MaaS(模型即服務)的雲服務。沈抖認爲這正是百度智能雲「彎道超車」的機會。
而從營收的角度上看,大模型的通用能力,讓雲服務得以更标準化,從而在不同場景中規模複用,降低服務成本、增加利潤。正是因此,百度管理層在 2023 年二季度财報電話會議中對投資者表示,AI 和大模型會讓百度智能雲獲得更高的利潤率。
以下是我們和沈抖對話的全文,由極客公園整理。
01 C 端文心一言、B 端千帆平台,成功的一體兩面
問:看熱鬧到了真正幹實事的時候。前兩天,百度在 C 端開放了文心一言,你怎麽看這個用戶使用數據?在意料之中還是意料之外?後台的運維能力是怎樣的?
沈抖:數據是我當天晚上 12 點半發到群裏,同事們第二天就發布了這個數據。數據是我從系統裏截的,原封不動地呈現給了外界,絕對真實。
我們本來也覺得「看熱鬧」的少了,所以預期沒有那麽高。沒想到當天有 3342 萬個回答量,這說明用戶對文心一言期待還是很高的。大家不是上來問一句、兩句就走了,而是經過了多輪的對話。從這個角度上來說,用戶的熱情還在。
文心一言從 3 月 16 号開始内測已經有五六個月時間,無論在效果提升、還是成本降低上,都給了我們比較充裕的準備時間。比如文心大模型的推理速度已經較當初提升了 30 多倍,大幅降低了推理成本,也讓我們能夠承載得了這麽大的用戶量。
問:所以這段時間百度大模型的技術進步,也包含成本上的進步?
沈抖:對,大模型本身就是資源密集型的技術範式。
我們開始沒有想到流量會這麽大,機器(算力)資源本身很寶貴,我們覺得放太多機器在那兒也是浪費,就沒有額外放太多機器。當天用戶規模上來以後,好在因爲我們的推理性能提高了,所以還是給用戶提供了穩定的服務。
我們手裏也握着不錯的算力儲備,接下來也會繼續降低訓練、推理的成本,滿足用戶需求沒有問題。當時我們内部群裏讨論,流量來了能不能抗住。我說,讓流量來得更猛烈些,都是幸福的煩惱。
問:文心一言在 C 端的放開,對百度的好處是什麽?
沈抖:你可能擔心的是,向 C 端開放如果不能帶來商業價值,是不是可持續的問題。
事實上,隻要真正給用戶創造了價值,商業化隻是時間早晚的問題。技術發展史上,那些有價值但變現難的事例很少。文心一言确實給 C 端用戶帶來了真真實實的價值,昨天我看有一些評論講,沒有了文心一言,他的辦公效率就會下降。所以隻要有價值,未來文心一言的商業化是順其自然的。
問:中國大模型的 C 端産品形态,會跟 ChatGPT 保持一緻嗎?也就是訂閱制收費嗎?
沈抖:現在講大模型的産品形态還太早了,它的定義也還沒有那麽清楚。
當年移動互聯網起來的時候,我們可以用幾個關鍵詞講清楚它的定義,比如 SoLoMo(Social、Local、Mobile,利用社交媒體、地理定位服務和移動終端設備提供更好的用戶體驗)。但現在大模型還無法用幾個明确的詞定義。它的能力更強大,但邊界也更寬泛,還遠沒到收斂産品形态的時候。
OpenAI 是技術驅動的公司,用戶體驗其實不是它的強項。它今天設計出的産品形态還很早期,接下來産品的叠代速度會非常快、形态也會劇烈變化。
問:ChatGPT 向 C 端用戶收訂閱費的商業模式,在中國是可行的嗎?
沈抖:我們可能會演變出新的變現方式,比如常見的廣告、電商加遊戲三大變現方式。
如果你願意一個月花兩千塊錢雇一個助理,那當 AI 能做助理 1/10 的事情,比如幫你制定旅遊行程、預定機票和酒店、甚至調動打車和外賣軟件等,你會不會願意花兩百塊?隻是變現方式不一定是會員費,可能是交易傭金或其他方式。
再比如,遊戲裏邊一堆 NPC 角色都是生成式 AI 驅動的、電商領域「數字人」直播也由生成式 AI 支撐,這都可能産生不同的變現方式。最終 C 端的産品形态,決定了它的變現方式。
問:如果 C 端産品最終是生産力工具,有沒有可能不是個人掏錢、而是公司給個人掏錢?
沈抖:有可能。比如百度網盤也算是一個效率工具,很多公司會買網盤賬号給員工用。我們還接觸過企業,給每個員工配一個 Copilot 賬号寫程序。這都是企業給個人買單的案例。
「文心一言」界面
問:作爲内容公司,我們也特别想用大模型來生産文章。你們剛上線了 To B 的大模型服務平台「千帆」,推出「千帆」的背景是怎樣的?能怎麽幫助零程序員的公司部署大模型?
沈抖:這是非常好的問題。事實上,這就是我們做千帆平台的原因。
這次大模型在 B 端落地的特點是大公司先行,很多客戶都是金融機構、能源機構、教育機構等。它們有一個明顯的特點是需要私有化部署,但這樣門檻很高,還要自己培養一堆技術人員叠代模型,可能會減慢大模型生效的時間。
反倒像很多中小公司,你們大概率不會排斥一個(平台型)SaaS 産品,也不會排斥公有雲。千帆平台就是這樣的産品。企業可以在上面直接調用 API,也可以訓練樣本做微調,幾乎零代碼打造自己的模型。我們做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應用。
問:似乎你們和 OpenAI 的路徑有所不同。OpenAI 是先推 C 端産品 ChatGPT,再慢慢推 B 端産品,百度卻是 C 端和 B 端齊頭并進。爲什麽會有這種差異?
沈抖:技術都有接受度的問題,得讓更多的用戶真正用它,找到它的價值所在。大家都在談大模型,但多少人真的用過大模型?B 端企業客戶更能感受到大模型對它們整個生産範式的潛在影響,它們更需要用起來。
但如果它們既不用公有雲的 API,也不自己搭一套環境去體驗、嘗試,那就是純粹在那兒天馬行空地想象。所以我們需要做千帆,讓它們先把大模型用起來。其實關于大模型的全方位開放,C 端等了很久,B 端也等了很久。隻是 B 端離商業化更近。
問:文心一言放開後,千帆平台的 B 端需求被拉動了多少?
沈抖:在文心一言開放的當天,在百度智能雲千帆大模型平台上,日活企業數增長超過 40%,考慮到 TO B 的反應速度通常滞後一些,實際的情況會更好一些。
放開不僅會拉動 C 端數據上漲,也一定會拉動 B 端的數據上漲。因爲這會幫 B 端企業降低成本、加快叠代速度(注:用國内模型成本更低、更方便)。
但從數據漲幅上,B 端暫時還比不上 C 端。今天假設有人要在 B 端用「文心一言」,他與其上來就調用 API,不如先去 C 端體驗一下。當他認爲體驗好,才會來千帆上用它。讓 B 端用起來,需要一個培育的過程。
問:如果 C 端和 B 端齊頭并進,你們怎麽設置優先級?重點主要放在 C 端還是 B 端?
沈抖:當資源出現沖突時,才需要設置優先級。大模型的特點是,它在底下很厚的一層都是通用的,那在上面找應用,無論 To B 還是 To C,都是百度要齊頭并進做的。沒有到資源沖突的地步。
在 C 端,百度正在積極研究大模型可落地的産品形态和商業模式。百度要基于大模型重構自己的 C 端産品,比如從百度自己的産品數據來看,百度網盤、百度文庫等産品,基于大模型重構後,用戶使用粘性和會員付費率都有很大提高;全新打造的文心一言 APP 和重構後的百度搜索,也成爲大模型應用新入口。在 B 端,百度智能雲通過打造出最好的大模型平台,服務好 To B 市場。
問:其實最通用的基座是你們的雲計算,無論服務内部客戶、還是外面客戶,都是你們的成功。
沈抖:是的,你服務好了内部客戶、就服務好了外部客戶,服務好了外部客戶、就服務好了内部客戶,這是 MaaS 的美妙之處。否則的話,假設外部和内部完全是兩套技術棧,成本就太高了。
我們是兩條腿走路。百度當然希望能做出一鳴驚人的 To C 産品,但我們也非常願意通過底層大模型和算力,支撐更多的企業和開發者做出好的 To C 應用。其實無論上面誰成功,都是底層大模型的成功。
02 大模型開啓殘酷淘汰賽,開源模型的未來堪憂
問:除了文心一言外,千帆平台還上線了其他模型。千帆跟 Hugging Face 這樣的模型聚合平台有什麽區别?
沈抖:在目前或相當長一段時間内,不管是出于模型的場景适配性、還是客戶的心理需求,企業都希望能嘗試不同的模型。從這個角度來講,我們也需要提供第三方模型。
但也不是每一個模型都值得去試,那會是很大的資源浪費。所以千帆有自己的篩選原則,我們放上來的都是相對比較優秀、易用的模型。
問:所以 Hugging Face 的定位是社區,千帆的定位是平台?
沈抖:沒錯。千帆不隻是解決你來選模型的問題,更解決你把模型真正用起來的問題。用起來又包括數據、訓練、調優、Prompt 工程,以及應用搭建等一系列問題,還要充分考慮到成本和效率。千帆提供的是一站式服務,這是千帆跟 Hugging Face 的區别。
Hugging face 模型廣度足夠,而千帆依托雲廠商天然的優勢,有足夠大的運營空間,也可以做到端到端的訓練和推理性能優化。例如,訓練過程中的加速,故障的快速感知、定位、恢複;推理過程中基于百度龐大的異構計算集群的擴展性,有非常好的資源彈性,也可以提供 serverless 的服務,使得客戶獲得低基礎設施成本、無需運維、高擴展性的收益。這是千帆要比 Hugging Face 做得更深的地方。
百度智能雲千帆大模型平台 | 圖片來源:百度智能雲官網
問:你似乎不看好開源模型,但開源攤薄了企業部署大模型的成本,也不能說它沒有意義。你到底怎麽看開源模型?
沈抖:你說 LLaMA(注:Facebook 的開源大模型)的成本誰攤?是 Facebook。那 Facebook 的成本誰攤?如果想不清楚這個問題的終點,那它(開源)就是無源之水、無本之木,終歸有一天會出問題。
因爲這跟傳統的開源軟件不一樣,過去一個人參與開源的投入,就是他自己的時間成本。但今天如果一個人想搞開源大模型,機器、數據的成本都太高了。
問:可以用愛發電,不能用愛計算。
沈抖:對,訓一輪你得扔幾千萬進去。
今天跟傳統開源玩法有一點相似是,它們都是用開源來吸引用戶的注意力,最終還是希望選其他(閉源)大模型。
問:有沒有可能出現類似 Red Hat 和 IBM 的關系(注:2018 年,IBM 宣布收購全球最大的開源公司紅帽)?假設像 IBM 這樣不甘心的有錢企業主,願意支持開源方呢?這樣開源就有資金、數據支持了。
沈抖:開源肯定是會長期存在的。随着大模型越來越受關注,政府、企業都可能捐贈去支撐這方面的研究,促進整個市場教育。但它最後能産生多大的價值?我覺得它大概率不會成爲主流,也不會形成完整閉環的商業模式。
傳統的軟件開發可以形成閉環。比如你寫了一段代碼或升級了一個功能,可以很快 check in(簽入),整個開源軟件的能力一下就提高了一層。但今天 LLaMA 發布完了以後,不管有多少人在用,它沒法 check in 回去,數據放不回去、算力放不回去、能力也放不回去,形成不了閉環。
問:很多開源派認爲,開源模型讀過萬億參數,雖然比不上閉源模型,但是也是很可用的了。就像模型本身雖然沒有 985 和 211 畢業的水平,但至少是個專科水平可以用來做更垂直的微調了。
沈抖:Foundation Model(基礎模型)到底要不要進步?如果說今天 Foundation Model 已經很好了,不用再改了,那沒有問題。但今天的情況是,Foundation Model 隻有 60 分,我們要争取做到 90 分、95 分的問題。
問:爲什麽要進步?很多企業的真實感受是,GPT3.0 都已經能解決問題,那進步的意義是什麽?
沈抖:這是一個很好的問題,我們内部也讨論過。今天 Foundation Model 做到 60 分也能解決很大一部分問題,但它離完美地解決,差距還是很大的。而人性的需求是,但凡你能讓我一次解決的,分兩次絕對不幹。
今天你在 Foundation Model 隻有 60 分的基礎上,訓練出了 85 分。那之後 Foundation Model 達到 85 分,你是不是能得 95 分呢?人在這方面的追求是無極限的。
這個極限肯定是要繼續往上拉的。拿搜索舉例,20 多年前的搜索就能用,那谷歌這 20 多年都在幹嘛?你看似結束了,實際上沒有。
問:怎麽看大模型接下來的競争格局?
沈抖:今天市面上有非常多模型,但我認爲它們很多都會迅速消失。
現在很多模型之所以還存在,是因爲很多人還不知道它的好壞。反正誰也試不了,誰也用不了,一測排名還挺靠前。但随着模型的放開,優劣更容易評判了。今天這些做大模型的,你給他三千萬個問題輸進去試試,估計一大半都得幹趴下。
這會導緻流量的逐步集中,頭部模型更容易形成規模效應,從而進一步分攤模型研發的成本。差距會進一步拉大。
問:淘汰賽會什麽時候開始?
沈抖:不好說,畢竟大家融的錢可能還得花一段時間。
對于大企業來講,燒還是燒得起的,但也要看它燒的價值何在。有一些企業是沖着反正自己的應用場景很多,這時候讓它去調别人家的大模型 API 肯定不幹,所以一定會做一個自己的模型。好點、差點(無所謂),至少不用依賴外部。大企業做模型這件事還會持續一段時間。
03 大模型讓雲計算服務走向「标準化」,百度雲終于賺錢了
問:未來大模型會不會成爲所有應用的底座?這會誕生一個完全不同的開發、應用生态嗎?
沈抖:毫無疑問,大模型會成爲一個新時代的操作系統,變成很多應用的底座。
一直以來,人和人、和機器打交道,都是用語言作爲指令。但過去,機器不懂自然語言,我們就硬生生寫了一套程序語言讓它理解。現在大模型理解了自然語言,整個應用開發範式就發生了根本性的變化。開發變得由創意驅動,而不是由代碼能力驅動。
另外,大模型也有把系統串聯起來的能力。像現在插件的出現,也就是獨立完成某種能力、等待被調用的組件,大模型可以把插件組合起來完成一個特定的任務。這都會進一步改變開發範式。
問:如果大模型能打通所有插件解決問題,這是不是變相實現了互聯互通?
沈抖:其實依然沒有。實際上,這些 APP 現在也都存在于同一個手機上、同一個應用程序裏,它照樣沒有實現互聯互通。将來在大模型基座上,美團接進來、滴滴接進來,但它們還是沒有互通的。
問:底層的問題沒有解決。
沈抖:對,互聯互通應該指的是數據打通,你的數據我可以訪問、我的數據你可以訪問。但在大模型底座下,我們隻是願意跟這個中樞對話,但我們插件彼此之間并沒有對話。
問:這種不互聯互通的情況,會不會導緻開發者不能流暢地實現跨資源調度?這會是中國大模型開發生态的缺陷嗎?
沈抖:我覺得主要的原因是沒放開、流量規模沒起來。比如文心一言一下子有了 3000 多萬的流量,開發者一算可能 1% 是自己的,那也有 30 萬的訪問了,他就會決定來幹。
問:在大模型時代,百度雲怎麽定義自己在生态裏的位置?利益機制如何分配?
沈抖:以百度一家之力是絕對幹不過來的。不是恐怕幹不過來,是絕對幹不過來。
首先,插件一定會是非常繁榮的生态,它和大模型之間是相輔相成的。插件要從大模型中獲取流量,大模型又需要插件能力的支持,就像今天假設手機上沒有微信、抖音 ,用戶可能都不用它了。
其次,在面向終端客戶的應用上,無論是私有雲部署、還是通過千帆這樣的平台級方案,最終一定需要生态夥伴完成最後一公裏交付的問題,比如金蝶、用友、軟通動力等。它們有特别熟悉的客戶和業務流程,最終需求都會被它集成。
總結一下,一是開發生态的能力聚合、二是幫大模型做交付的合作夥伴、三是用大模型強化自身服務的客戶,這都是生态。
問:大模型的技術範式,給雲計算帶來了哪些改變?
沈抖:技術發展的脈絡是越來越高級。換句話講,離底層越來越遠,越來越不需要關注細節,封裝越來越好,有大量的人在背後把這些活給幹了。這本身也是雲貢獻的價值。
早期的 CPU 雲貢獻的價值,就是客戶不用自己買機器一個一個卡綁,它封裝得越來越好、可以在上邊直接用。随着大模型時代到來,「AI 加速芯片」GPU 慢慢成爲算力中心,算力增長速度遠遠超過 CPU。這會加速我們從 CPU 雲向 GPU 雲的切換。
在 GPU 雲的時代,最終我們會把雲的能力進一步封裝,不讓底層暴露出來,形成更高級的交互形态,直接對接大模型的 API。今天的雲還是給工程師開發的,交互形态還不夠徹底,但未來底層的工程師會減少,更多人會往上層走。這是一個大幅的變化。
百度智能雲 | 圖片來源:視覺中國
問:大模型會重塑雲計算的市場格局嗎?如果會,什麽時候能看到信号?
沈抖:我喜歡這個問題。如果沒有大模型的話,百度的雲會打得非常吃力。我們過去一直在喊「深入行業、聚焦場景、雲智一體、AI 普惠」,百度智能雲想做的就是把 AI 放到整個 To B 的服務裏,讓它成爲一個增長點。
但過去,傳統的 AI 是非常碎片化的。它要針對一個問題生成一個能力,再解決這個問題,通用性比較差。這就導緻它都是項目制,很難規模化,毛利也低。
而生成式 AI 出來以後,我們看到它的通用性非常好、一下子能解決很多問題,在應用層往下基本都是統一的,哪怕需要微調、需要插件,都是标準化的動作。這跟之前非常碎片化的 AI 應用完全不一樣。這本身就是雲業務的巨大變化,所謂的 IaaS 變成了 MaaS。
問:過去中國的 AI 公司都是要落項目,非常苦。沒法像現在這樣,通過标準化的産品解決問題。
沈抖:我們那時候跟 Robin(注:百度創始人、董事長兼 CEO 李彥宏)讨論雲戰略,他也要求我們必須得标準化、規模化,不然體現不出來百度作爲一個技術公司的價值。
問:所以接下來長期都會是标準化和規模化?
沈抖:大模型在早期有很大的不确定性,今天,很多客戶對大模型的能力上限、邊界、成本、交付、需求方式都還沒有統一認知。短時間内,我們還不能保證客戶都到公有雲上來,肯定還是先通過項目制的方式去做。
但即使是這樣的項目制,也跟以前的項目制不一樣。比如我給你私有化部署了模型,它更像是 Windows 或者是 office,先是 95 版,接着是 97 版,又來了 2000 版,你得不斷的升級。看似我給你一個光盤裝到家裏了,實際上你得不斷地訂閱。這跟原來搭建的也不一樣。
問:但你們的财務已經出現了改善。今年一季度百度智能雲首次實現季度盈利,你們提到原因就是雲服務的标準化,實現了規模複用、降低了成本。
沈抖:是的。在單純項目制、或者項目制占比比較高的情況下,交付後毛利太低了。
04 執掌百度雲一年多,迎來了最好的機遇
問:作爲百度最高決策層的一員,你平常最關心和焦慮的問題是什麽?經常要跟團隊讨論的問題是什麽?
沈抖:在産品形态上,Robin 有一個要求,一定要用 AI 原生思維來重構所有的産品。是重構,而不是接入。
在技術上,我們思考的是今天生成式 AI 的能力還能往上蹦多高。文心一言現在的評測結果還不錯,但它還遠遠沒到人類語言、或者優秀人類語言理解的上限。怎麽能繼續快速拉升這個能力,肯定是我們第一位思考的問題。
接着是行業應用上,模型怎麽能真正用起來、在哪些場景能用起來、用起來的門檻有多高、邊界有多寬、怎麽能提高它的效率、怎麽激發大家想到更好的用法……這都是我們要不斷思考的東西。
問:這些都是比較偏軟的層面,偏硬的層面呢?
沈抖:現在算力集群從千卡到萬卡,百度是中國真正在萬卡級别上跑單一任務的公司。
在萬卡集群下,組織、效率、保障這些真正底層的工作大家看不見,但是它們極其重要。比如,我們要提高底層硬件和軟硬一體的訓練、推理效率。這都是蠻關鍵的東西。
問:你在百度這麽多年一直都負責搜索、廣告業務,直到去年才主掌智能雲,馬上就遇到了大模型的曆史機遇。會覺得是一種幸運嗎?你的感受是怎樣的?
沈抖:沒那麽誇張,但我确實很興奮、很幸運能去做這麽一件事。
去年接手的時候,我就有(把雲服務)規模化、标準化的思路。但因爲 AI 能力太碎片化了,做起來非常難。當時我就使勁在想,有什麽東西是既需要 AI 能力、又需要 AI 算力、同時還能讓很多人同時去用的?找半天找不着。
然後,大模型就出現了。一下子就感覺順手了。
百度集團執行副總裁、百度智能雲事業群(ACG)總裁沈抖 | 圖片來源:百度
問:你個人學的是人工智能方向,大模型是不是也跟你更匹配?
沈抖:這跟我研究生做的事情很相似。雖然我一直學計算機的,但我做得偏軟件的多一些,一直在人工智能這條線上做。
當時接了雲(偏底層硬件)以後,我真的又把操作系統、計算機組成原理的書拿來看了一遍。如果說真是 CPU 時代的 IaaS、網絡組件、存儲計算那套東西,我覺得還是有點難的。
但大模型出來以後,我發現那些東西被封裝在下面了,我現在主要研究大模型就可以,比如讀論文、自己用 Python 把千帆上的 API 調用一遍等等。我覺得順手多了。
問:接下來,你對百度智能雲的發展增速有怎樣的預期?
沈抖:百度智能雲現在就接近兩百億的盤子,還相對比較小。在大模型的加持下,我們的客戶需求變得很旺盛,現在都忙不過來。不過要想真正讓用戶用起來、做好交付,還需要一個過程。
問:四季度會迎來小爆發嗎?
沈抖:有人估計四季度會是爆發的。需求确實開始起來了,但我覺得爆發的話,可能要到明年。
問:你怎麽評價自己的運氣?
沈抖:我覺得這是百度的運氣。百度做 AI 做了這麽多年,下了這麽大功夫,如果大模型不來的話,雲的商業化路徑确實更難一些,也很辛苦。這正好說明有 Vision 的公司,最後運氣也不會太差吧。