零一萬物創始人、CEO李開複
今年11月30日,風靡全球的ChatGPT迎來了兩周年日子。
這個下一代AI浪潮的命運之子、擁有3億活躍用戶的 AI 聊天機器人應用,引爆了全球新一輪 AI 創業熱潮,讓世界迎來AI 2.0時代。
在AI 2.0新的時代機遇下,已經耕耘AI四十多年的李開複決定躬身入局,創立了大模型公司零一萬物,緻力于打造全新的 AI 2.0 平台與AI-first生産力應用的全球化公司,并且在短短一年多時間裏,技術能力、公司規模和商業化腳步迅速擴大。(詳見钛媒體App前文:《李開複:中美人工智能競争不是零和博弈》)
零一萬物日前推出的全新旗艦預訓練模型Yi-Lightning,近期在國際權威盲測榜單 LMSYS 上超越OpenAI GPT-4o-2024-05-13、Anthropic Claude 3.5 Sonnet(20241022),排名世界第六,中國第一。(數據截至2024年11月20日)
同時,零一萬物早已跻身10億美元"獨角獸",并且全面瞄向 AI 大模型的商業化,公布了一整套"從 AI Infra 到模型,再到應用"的全行業 ToB 解決方案:構建大模型算力平台的智算中心解決方案;面向本地生活、辦公會議等場景的"如意"數字人解決方案、萬視營銷短視頻解決方案在内的零售行業解決方案;以及模型訓練解決方案——由數據平台、預訓練平台、訓練後平台、模型Playground等構成全鏈路模型運維平台,加速 AI 大模型技術的商業落地。
12月6日-7日,2024 T-EDGE創新大會暨钛媒體财經年會在北京召開,以"ALL-in on Globalization ,ALL-in on AI"爲主題,彙聚全球科技和商業領導者,共同探讨人工智能對全球各行業的巨大影響,以及企業全球化增長新格局新趨勢。作爲钛媒體集團每年年終舉辦的科技和财經領域的頂級盛會,T-EDGE一直代表了钛媒體在科技與經濟前瞻性,以及推動國際創新交流上的高質量追求。
12月7日T-EDGE大會上,钛媒體集團創始人、董事長&CEO,T-EDGE全球委員會主席 趙何娟,與零一萬物CEO、創新工場董事長李開複,圍繞 AI 2.0驅動全球科技創新,推理、端側、行業和基礎大模型的發展,以及邁向AGI 如何更好落地等熱點話題進行了一場深度對話交流。
"我們堅決不盲目燒錢買不賺錢的流量,也不做‘賠本賺吆喝’的生意。"李開複反複強調,零一萬物要在性能優異的基礎上,做最快、最便宜的模型,來點燃大模型在To C、To B的生态。
以下是钛媒體AGI摘錄的李開複七個重要觀點:
過去一年半時間,模型能力越來越好,價格也越來越便宜,推理成本一年下降了10倍左右,而零一萬物希望做的,不是1年10倍(速度增長、成本下降),而是希望做到三、四十倍,要比行業更快三、四倍,更快催生出好的應用。
o1 也是 Scaling,隻不過 Scaling 的對象從 Training Time Compute 變成了 Inference Time Compute,兩者相輔相成之下能夠更高效地突破模型能力的上限。
Scaling Law還是有效的,但它的效率不像之前那麽高了,主要原因是有兩點:數據受限,文本數據的遞增不會像過去那麽快;同時,用堆GPU卡的方式進行模型訓練會面臨算力利用率降低的問題,GPU的數量和實際訓練時的收益并不是線性提升的關系。
模型做得又快又便宜,一個核心是少用内存,善用内存,少用GPU,能存的不要算,必須算的才算,這些是原則。而且,對中國大模型初創公司而言,要側重"有效的創新",不要單槍匹馬地去挑戰過于宏偉的AGI實驗,有可能花了巨大成本但難尋落地的場景。
明年,全球推理算力會進一步降價,進而推動AI-first的To C應用爆發,"需要用一段時間去積累用戶再商業變現"應用成長路徑有望會迎來機會。其中,中國AI 2.0未來的優勢是,中國能夠做出性價比更高的模型,極低的推理成本将成爲High DAU應用的基礎,同時,中國團隊也積累了大量從移動互聯網時代傳下來的打法,能夠用于AI應用的推廣和增長。多種因素疊加下,中國團隊在To C方向上會有很大希望。
行業的最大挑戰是,作爲大模型初創公司,現在進入了新階段——要證明自己可以有持續的收入增長。在技術競争變成商業化競争的過程中,大模型初創們能否從起初的學者型創業轉變爲企業家創業?這個坎如果過不去的話,最終路還是會越走越窄。
零一萬物的定位是,第一、堅決做最快最便宜的世界第一梯隊模型,點燃To C、To B的生态;第二,堅決不盲目燒錢買不賺錢的流量,也不做"賠本賺吆喝"的生意。
李開複強調,AI大模型公司要去爲客戶服務,與客戶共同創造價值,達到雙赢。至于AGI,他表示,總有一天,AI會能夠做的事情會比人類更多,但是,AI未必要做到人類所能做的每一件事情。他預計,我們距離通用人工智能(AGI)還有7年時間,AGI出現的大緻時間點會是在2030年。
以下是趙何娟和李開複之間的對話全文(經整理):
趙何娟:開複老師您好,歡迎來到我們2024 T-EDGE全球創新大會暨钛媒體财經年會,我們非常高興能請到開複老師跟我們做這樣的一個對話。
李開複:何娟你好,謝謝邀請,各位觀衆朋友大家好。
談推理模型發展:o1更像是理工科,需與基礎模型并存發展
趙何娟:過去一年,AI無論是在矽谷、美國還是中國其實都發生了很多大的事件。最近您自己覺得,我們能觀察到的整個矽谷和全球AI發展的大趨勢裏面預計可能接下來的一年可能得變化裏面,您最看重的一個可能性的變化是什麽?
李開複:我最看重的變化就是,越來越多開發者會意識到,今天非常好的模型已經非常便宜了,能夠支撐一個百花齊放的AI-first應用時代到來。我覺得這将是2025年最大的事件。
在此之前,這些應用很難被開發出來。你可以想象,僅在一年半之前,足夠好的模型隻有GPT-4,現在回頭看,GPT-3.5其實能滿足的應用場景很少,因爲模型能力不夠強。但如果一年半之前應用開發者選擇接入GPT-4,每調用一次就要花費1-2美元,誰又能做得起應用呢?很容易自己就會做破産。
在過去一年半的時間内,模型性能越來越好,從GPT-4、Turbo、4o到o1,模型能力已經提升了很多。另一方面,當年的GPT-4,現在來看也已經很便宜了,即便是4o,每百萬token也隻有4.4美金(按輸入輸出3:1比例計算),比一年多以前的GPT-3.5下降了接近20倍。
從整個行業來看,推理成本一年下降了10倍左右。整個行業在以1年十倍的速度實現推理速度變快和推理成本下降。而零一萬物希望做到的,不是1年10倍(推理速度增長、成本下降),而是希望做到三、四十倍,也就是說,我們要比行業更快三、四倍。這樣的話,零一萬物就能先人一步做出好的應用。
趙何娟:成本下降會帶來大量應用爆發,就是您對2025年特别大的一個期待或者預判。剛才您也提到了,今年其實有很多模型在叠代。前段時間,我們在矽谷辦公室也組織了一次關于o1大模型平台的讨論,有邀請x.AI、OpenAI相關的team leader來,我們讨論的時候發現,所有大廠現在都在做一件事情,就是o1這種推理模型。但是,o1跟過去的基礎模型其實在範式或在路線上,已經有很大的一個變化了,我們是不是可以理解爲,接下來所有大廠都會在推理模型上競争,而不是基礎模型上競争?那麽基礎模型的競争是不是到頭了?零一是不是也有考慮推出新的推理模型?
李開複:大家都在做推理模型,這肯定是一個趨勢,包含零一萬物在内的少數中國大模型公司目前也已經做出了不錯的初步成果。
從技術角度來說,o1既是一個大模型的延伸,也啓發了行業嘗試相對不一樣的做法。o1 也是在Scaling,隻不過 Scaling 的對象從 Training Time Compute 變成了 Inference Time Compute,兩者相輔相成之下繼續高效地突破模型能力的上限。
就像人類的"快思考"、"慢思考",都是大腦的功能和延伸,合并起來能夠思考得更深入,所以在大模型領域内,它們(推理和基礎模型)也是互補的。但之前沒有嘗試"慢思考",大家都在做類似"快思考"一樣的探索,模型就像是在做快問快答,腦子裏面想到什麽就蹦出來什麽。
當然,人類不經過很多思考,往往也可以七步成詩,做出很多創意類的文學内容等。所以,其實"快思考",也就是o1之前的大模型也能夠完成很多人類的需求和任務。
但是,人類面臨難題時,答案不是一拍腦袋可以拍出來的,通過直覺給的第一個答案并不一定是對的,或者在講述幾句話之後我們發現思路不對,需要修正。人類有一個很強的能力,就是能夠自我反思、自我修正,即所謂的reflection(反思),那些能夠在科學界有建樹的人,往往存在批判式思維,能延續類似的邏輯推理思考,經曆過不斷叠代求證甚至推翻重來的過程,才能取得一個有重大進步的科學成果。
o1的發展就類似上述的路徑,并且已經向外界自證了它的價值。很多人也從巨型的預訓練模型轉到推理探索,整體思路演變成爲了兩個并行的Scaling:第一個是模型越大越來越聰明,第二個是想得越久越聰明。兩個Scaling是可以1+1至少等于2甚至等于3。
我認爲,這對行業而言是一個巨大的推進。雖然OpenAI沒有告訴外界如何做出o1,但是令我們振奮的是,随着思考的時間長度增加,模型思考出正确答案的概率也會大大提升。兩個Scaling Law疊加,給追尋AGI的我們帶來了更多可能性,讓我們不必把雞蛋都放在一個籃子裏。
趙何娟:我們是不是可以理解爲,過去基于Transformer的基礎、基礎大模型Scaling Law法則已經失效了?将沒有數據可算了?所以到達一個瓶頸之後,Scaling Law他不可能就是無限大,即便有算力,提供再多的算力也沒有用?
李開複:Scaling Law還是有效的,但它的效率不像之前那麽高了。
第一個理由是,世界上數據總量隻有那麽多,雖然我們可以用機器造數據,用視頻數據、多模态數據、具身智能數據來訓練,但是最濃縮的智能還是來自于文字,而文字總量就那麽多,其他方法做出來的都不是最完美的。就像你說的,人類的所有文本數據都會被拿來用,但文本數據的增長不會那麽快。
第二個理由是,要持續推進大模型預訓練的Scaling Law,就需要把越來越多的GPU和機器串在一起。當你隻有一、兩張GPU做深度學習Transformer計算的時候,大模型預訓練時間幾乎都在計算,很少會涉及傳輸;但是當你擁有10萬張、20萬張GPU計算的時候,數據傳輸成本就會變得很高;到100萬、1000萬GPU的規模時,幾乎大部分時間都在做傳輸了。GPU越多,數據傳輸越慢,算力并不能随着GPU增多而線性上升。
舉個例子,如果從一張GPU擴展到兩張,你可能會獲得1.95張卡的效能,但是如果你從10萬張變成20萬張,卡的效能可能會更接近10萬張卡的效能而不是20萬張。一個重要原因就在于所增加的傳輸環節,以及過程中的延遲。
所以,我們認爲Scaling Law的落地會變得越來越貴,邊際收益會降低,但并不是無效了,繼續堅持預訓練模型還是會有進步。
趙何娟:如果說OpenAI在推理模型方向上推出o1,可能明年還會推出o2系列的話,OpenAI爲什麽還要在GPT-5、6這條路上投入重金去發展?爲什麽這兩條路不能合爲一條路?
李開複:這兩個路徑并不互斥。我覺得,做"快思考"、"慢思考"都是永無止境的。比如,一個文科生突然在微積分裏找到了新大陸,但這并不代表你不該回去再讀柏拉圖,這兩者是沒有沖突的。
我們以後要做一個"超級大腦",還是希望它"文理雙全"。
但我認爲,這個過程中倒是存在着另一個悖論,這兩種Scaling Law都會讓模型變得越來越慢。第一種要求模型廠商把模型越做越大,而模型越大推理越慢;第二種在大模型上疊加"慢思考",會進一步降低推理速度。假設未來模型推理所需要的時間從目前的5秒到60秒,延長至了5分鍾到60分鍾,那模型在絕大多數場景下就不适用了。
所以我認爲,這裏存在着一個非主流、但是零一萬物認爲很重要的認知,尤其在o1爲代表的"慢思考"出現之後,更凸顯了這一認知的重要性——我們一定要把推理做到超快。你可以這麽想象,如果零一萬物訓推優化出一個很好的"快思考"模型,回答同一個問題,别的模型需要3秒鍾,我們的模型隻要0.3秒鍾,假設慢思考會讓模型變慢20倍,3秒鍾變慢20倍會變成1分鍾,但是我們的0.3秒變慢20倍才6秒鍾,在很多場景下依然是可用的。
所以,當你擁有一個非常快的推理引擎時,疊加"慢思考"後也不會特别慢,對用戶的價值就會更大。所以零一萬物會堅持做超快的推理模型,因爲超快的推理速度不僅在"快思考"的階段有所助力,在引入"慢思考"後,它還能夠讓模型在具備令人驚豔的性能的同時,使推理速度保持在可用的範圍内。
趙何娟:我們在理解您說快思考基礎模型邏輯的時候,其實很清楚有數據、算力時限制的,但是o1這個新範式的推理模型的時候,其實是有很多不清楚的,比如推理的慢思考一定是相對的詞,如果我們把慢思考的5秒提升到3秒,這個就變成我推理模型的最關鍵因素,怎麽把推理的慢速度提快一點點,這或許就是競争力,那麽您覺得,做推理模型能夠提高這一點點的競争力關鍵是什麽?是算法嗎?
李開複:這肯定是核心競争力。我認爲這也是零一萬物的最大特色。我們在"快思考"階段的推理速度就非常快。
趙何娟:推理速度再快,思考就會非常快,那麽這是如何做到的?我們連OpenAI 的o1怎麽做的,都還不确定,他們是黑盒子。那麽,零一把推理變快兩三倍,o1推理也快2-3倍,那麽零一萬物爲什麽能夠把推理模型做得這麽快呢?
李開複:我們做了下面幾個工作。
第一,尋找方案解決速度減緩問題。大模型速度逐漸變慢是因爲GPU在不斷計算。那麽,我們是否有可能讓GPU少算點?其實在經典計算機學裏面就有提到,要做計算和存儲的遷移。也就是說,能被記得的内容就不用再算一遍了。計算機學裏的Hash Table(哈希表)等等這些技術,其實就是指,别什麽都算,能記下來的内容就不要算,算過一遍的内容記住然後下次直接用就行了。
第二,Memory Caching(内存緩存)。後續可能會用到的數據,我先把它調到附近來,要調用的時候方便就近使用。這就類似于,日常在網上看視頻有時候會卡頓,原因就是要通過網絡傳輸很多數據,但是一個聰明的做法是,先把視頻部分緩存到我的電腦或手機上,即便出現網絡卡頓,視頻還是能從本地播出,這就是一個Caching的方向。
所以簡單地說,如果能把底層的推理模型,從一個計算模型,變成一個更多是存儲的模型,推理速度就會變快很多,甚至變快三倍。
另外,零一萬物在做模型研究的時候,就不會去研究那種超大、無法縮小、沒法變快的模型。我們從做科研的第一天就會考慮,最終做推理時會用多大的機器,有多少個HBM、多少RAM、多少SSD,然後統籌布置模型訓練。
零一萬物會先定一個目标——做又快又便宜的模型,在這個基礎上做到最好。零一萬物的每一個人,無論是做AI infra的、做模型訓練的、做推理引擎或者做數據中心的,全部都是秉着這一個目标去做,因此做出來的模型才會這麽快。
趙何娟:您說得特别好,又快、又便宜,這是兩個非常關鍵的因素,這是否也代表着 AI 模型能否在應用市場普及的關鍵因素。快我們現在理解了,但便宜您是怎麽做到的?我們都知道算力沒辦法便宜,數據現在越來越折桂,那我們能夠做到加快性能和推理速度的同時,還能做到便宜?
李開複:我們加快模型的速度不是通過堆更多的機器讓大模型變快,而是用同數量、同規格的機器讓大模型變快,這樣訓推出來的模型才能多快好省,才有競争力和性價比。
我們的硬件是固定的。零一萬物會在相同硬件的前提下做到最快。模型速度變快之後,假設以同樣的成本多生成了三倍的token,那公司就可以獲得三倍收益。或者換句話說,以同樣的成本多生成了三倍的token,那模型對外的價格也會降到原先的1/3甚至更低。
趙何娟:所以您認爲這中間最核心的是什麽?
李開複:核心其實就是少用内存,善用内存,少用GPU,能存的不要算,必須算的才算,這些是原則。
另外,在零一萬物做AI科研的同學,被要求不要去做那些過于宏偉的AGI實驗,要做"能落地和最有效的創新"。
一個公司戰略定位要從自身實際情況出發。當年IBM的電腦是巨型且昂貴的商務機,微軟和蘋果則做出了人人可用的PC。幾家公司的戰略和路徑出現了明顯分野:有的要做世界最大、最強的電腦,有的則要做一個最快且人人可用的電腦。零一萬物目前選擇的路徑是第二種。
另外,我剛才的描述也可以被理解爲"垂直整合"。爲什麽早期的 iPhone那麽驚豔、那麽好用?就是因爲喬布斯完美地實現了垂直整合的工程工作。談到零一萬物聚焦的目标,它不見得是由一個偉大的論文,或者是巨大的技術突破,或者是靠堆更多GPU做出的結果。我們現在所要實現的,是一個靠譜、快速、卓越的工程工作。
零一萬物做大模型的第一目的,就是要快、要便宜,在這個前提之下盡可能把模型做到最好。在這樣一個共同的目标下,用"垂直整合"的思路,來把内存的問題、降本增效的問題做好,最終設計出一個兼具性能與性價比的模型。
談中美AI發展:明年To C、ToB都會爆發,但開源模型仍存挑戰
趙何娟:我特别能理解這背後的一個機制和原理。
我們接下來看應用端,我們經常說中國的優勢是一個龐大的應用市場,中國是個大市場,這是我們的優勢。雖然我們基礎科研不如美國,但是我們因爲應用市場巨大,而且相關的創業者也比較多,如同互聯網和移動互聯網應用一樣,我們會領先于全球。但是我們現在看到,尤其在通用大模型,除了ChatGPT這樣一個C端産品外,已經很少有特别爆發性的C端應用,更多的可能在B端,包括美國現在B端應用"百花齊放",甚至有的已經開始掙錢了,這一塊對于中國來說又是一個短闆。我想問,這會不會加大我們對于美國的差距?然後,我們怎麽看待現在應用市場上的這些機會,到底是To b(企業級)先行還是To C(消費級)先行?
李開複:在國内市場上,我們也看到了你所說的這幾點擔憂,但是我依然認爲,2025年會是一個轉折點,AI-first的To C、ToB應用都會爆發。
從To C的角度來看,"能夠很快變現但增長很慢"的To C APP不是中國團隊的長項,"前期積累大量流量随後變現"的To C APP才是中國團隊的長項。但在過去的一年裏,構建後者這類應用的方法論在國内其實沒有用武之地。
目前的Chatbot應用的用戶量還沒有達到能夠變現的階段,但如果在無法變現的前提下,依靠純投放獲得百萬DAU要花費大量資金,這不是長久之計。
但是我對2025年是樂觀的,因爲推理成本會足夠便宜、模型也足夠好。零一萬物的Yi-Lightning模型,還有一些其他的優質國産模型,不僅在性能上已經對齊美國頂尖模型,而且還做到了更快、更便宜。明年一個大趨勢就是,越來越便宜的推理成本會推動High DAU的應用出現,"先用一段時間積累用戶随後再探索商業變現",這類AI-first To C應用的成長路徑在明年會更清晰。
中國大模型領域未來一個很大機會也在于此。中國能夠做出性價比更高的模型,讓推理變得很便宜,把大量從移動互聯網時代積累下來的打法,用于AI應用的推廣和增長,催生出更多To C High DAU的AI-first APP。這幾個因素疊加下,中國To C會有很大希望。這是第一點。
接下來,有關To B我也同意你的說法,美國是一種"我幫你賺錢、你幫我賺錢"的生态,企業用戶有很成熟的付費習慣,這個付費習慣是中國的To B從業者非常羨慕的。在未來一年内,期待中國To B生态能從付費習慣上做出改變,這并不容易。
但是我認爲,中國團隊也存在着獨特優勢,就是中國大模型公司更願意深入企業做定制。我們可以先嘗試單點突破,然後快速叠代。如果我們的模型能幫企業"印鈔票",我們當然也能從企業客戶的增長中受益。
目前,在零售、遊戲、政務等領域,我們已經看到了一些"曙光",零一萬物給客戶的價值足夠大,所以能夠得到不錯的回報。展望2025年,這是我所看到To B領域的希望。
趙何娟:剛才有講到一個點,關于To B應用層面,像OpenAI可能不會給你提供模型,而是API接口,那麽這是否意味着,開源模型會比閉源模型更有優勢?
李開複:開源模型是一個非常強大的勢力。零一萬物本身在做開源,也認可開源的做法,開源生态下也能夠出現相當好的模型,雖然未必是最好的。
但開源也有一些挑戰。
首先,開源是無國界的。越來越多的國家不願意把數據分享出去,鴻溝會越來越大。同時,一個國家的合法數據在另一個國家不一定合法,跨國使用存在風險。
第二,開源模型也有相當高的調試門檻。大家對開源模型有一個很大的"誤解",開源模型隻是共享了模型和參數,但訓練過程是黑箱。另一方面,即便是很多大企業的技術團隊也不是做模型微調的專家,所以在引入開源模型後,企業如何基于自身需求繼續訓練模型會是一個很大的挑戰。
第三,很多開源模型并沒有考慮到推理速度和推理成本的問題,即便性能不錯,但高額的推理成本和緩慢的推理速度很難滿足企業需求。模型的特性和企業訴求很可能是不一樣的。
閉源模型的優勢就在于,頂尖的閉源模型性能會比開源模型好一些,而且模型廠商可以派專家團隊到企業去服務。在性能和ToB專業服務方面,采購閉源模型會更領先一籌。
趙何娟:那麽,開源模型是不是更适合中國市場?
李開複:其實不見得。一般來說,中國大模型公司是願意到企業去提供服務的。對于企業來說,是引入開源模型自行摸索更劃算,還是選擇與大模型公司合作共建效果更好?我認爲是後者。除了少數技術比較強的企業之外,選擇與大模型公司共建是更好的選擇,大模型公司可以幫助企業訓練出差異化的模型。當然前提是,這家企業願意付費。
開源模型的最大優勢,就是免費,但按照美國人的話說——You get what you pay for,一分錢一分貨。你付0元得到的,可能需要你在其他層面付出更大的成本支出。
趙何娟:所以,即便是一個開源模型,到企業去做一些調優後,可能也就會變成閉源模型,同時,有可能已經不是開源和閉源的問題,而是可能更多是需要企業定制專屬模型,而這個專屬模型不一定是我們所謂的通用大模型了,更多可能是端側模型。我可以這麽理解嗎?
李開複:定制的模型往往不是端側的,它是一個部署在企業内部可控環境裏運作的大模型。
我敢打賭,幾乎95%以上情況是,大模型企業幫企業做,要比企業在開源模型自行摸索效果更好。即便是拿零一萬物的開源模型,由企業自己做,我可以100%的保證,做出來的效果不如付合理的費用給我們,我們用閉源模型幫你一起做。
未來大模型挑戰:2030年AI能力有望超越人類
趙何娟:我明白了。所以這個裏面也有一個很有意思的問題,現在我們看美國To B的整個雲生态裏面,除了大廠外,新的大模型獨角獸一個是OpenAI、另一個是Anthropic,其實這兩個都有深度綁定的雲服務商——OpenAI與微軟雲深度綁定,Anthropic是與亞馬遜AWS深度合作的,而且現在分流越來越明顯,甚至都要綁定自己的雲服務。所以在零一萬物看來,中國獨立大模型公司不是與雲廠商綁定,怎麽解決生态問題?
李開複:雲服務在國内還沒有像國外那麽普及,大部分中國公司還是會選擇在企業本地部署模型,而不選擇雲部署的形式。同時,不少企業使用大模型的場景都會涉及到内部業務數據、财務數據、文檔郵件等,對保密要求很高,這些場景下企業也會更傾向于私有化部署。
未來兩年,大模型和雲如何強強結合,可能還不會成爲一個獨立大模型公司能碰到的挑戰。
趙何娟:未來兩年,作爲一家獨立的大模型公司,與大廠的生态模型公司進行競争,面對的最大挑戰是什麽?
李開複:我認爲,我們最大的挑戰是,大模型公司現在進入了一個新階段,要證明自己"可以有持續的收入增長,而且可以看到未來打平的一天"。我們從AI 1.0時代發展曆程可以看到,行業的關注點從誰團隊最強、誰寫了最多論文、誰打榜打了最高的分數,逐漸轉移到了誰做了第一個落地的應用,誰收了第一桶金。就像當年的"AI四小龍"一樣,這些我覺得如今的大模型公司都做到了。
再下一個階段,大模型公司就要面臨靈魂拷問,就是你能不能拿更多的訂單,你能否在部分業務上盈利,并驗證業務是否達到了一個可擴張的階段,随後才能考慮上市的問題。
我們看到,在AI 1.0時代,那些沒有通過靈魂拷問的公司,有些運氣好先上市了,但也碰到了破發等窘境;有些運氣不好的,就一直沒能上市。
所以,這就是大模型領域共同面臨的一個巨大挑戰:在技術競争變成商業化競争的過程中,能否從起初的學者型創業轉變爲企業家創業?這個坎如果過不去的話,最終路還是會越走越窄。
現在,大模型"六小虎"在内的幾家頭部大模型公司其實已經幾乎不再彼此競争了,各家走的路各不相同。大模型這個賽道比AI 1.0時代的計算機視覺要大得多,也許各家在不同的領域都會成爲偉大的公司。5 年以後,我想這幾家大模型公司可能都不見得會被稱作"大模型公司",因爲他們都找到了新的道路。
趙何娟:您剛才也講到,我們現在國内五、六家模型公司都有各自定位,你覺得零一萬物是屬于哪個定位?
李開複:兩個定位。第一、堅決做最快、最便宜的模型,點燃To C、To B的創新生态;第二,堅決不盲目燒錢買不賺錢的流量,也不做"賠本賺吆喝"的生意。
趙何娟:當前我們可以看到,李飛飛在做空間智能,楊立昆在做世界模型,波士頓動力創始人Marc Raibert也在研究關于機器人的新算法,他們都在解決一個問題,就是利用機器人這種"具身智能",希望解決大語言模型限制、或局限性問題。所以,您有沒有考慮未來如何把模型跟機器人進行結合做模型突破。
李開複:"具身智能"肯定是(AGI)下一個特别重要的方向和裏程碑,會是生成式AI的一個重要應用場景。目前具身智能隻能夠實現對現實物體、環境的大緻理解,做到準确性要求不高的基本操作,還有很多技術問題待解決。
從宏觀角度來看大模型的發展,文字隻是第一步,多模态是第二步,再往下就應該是Action,"智能體"直接幫你把事情都做了,而不隻是給你答案。它要有行動的能力,這樣才是一個完整的智能重現。
當然,我們也看到了很多很酷的演示,但這些都是低垂的果實,具身智能要産生真實的商業價值還需要一些時間。目前,零一萬物還需要聚焦大模型創新,暫時沒有辦法分心做這些事情。但我們很願意去跟具身智能公司探索合作,大模型作爲"大腦",可以跟具身智能有很多疊加的方向。
趙何娟:最後預判一下,有人說o1推理模型出來後,意味着AGI已經實現。在您看來,實現AGI還應該怎樣發展?以及AGI的實現還需要哪些條件?
李開複:今天人與AI,各自能做很多事情,有些事情人做得更好,有些AI做得更好。AI會比人發展得更快,未來總有一個時刻AI 能夠做的事情會比人類更多。但是,我們認爲,它未必能做人類能做的每一件事情。
EPOCH AI智庫研究把AGI做了定量分析,分析裏認爲,從GPT-2到GPT-4提升了多少,GPT-6或GPT-7就需要在GPT-4的基礎上提升同樣的幅度才能夠達到AGI,也就是說從GPT-4到GPT-7的進步需要和從GPT-2到GPT-4一樣多。他們用比較科學謹慎的方法算出來,大概會是在2030年左右達到AGI,這個預測我認爲是比較靠譜的。
趙何娟:好的,謝謝開複老師。剛才的對話非常精彩,開複老師都很坦誠的跟我們交流了很多他的真知灼見,我們也相信,在未來的一年,整個 AI 行業還會發生非常多的變化,我們也希望能夠成爲持續的觀察者和記錄者,然後也持續跟開複老師保持這樣的對話和溝通。我也非常謝謝大家,能夠來參與到我們今天的對話,我們相信,開複老師給我們的回答還是非常精彩,也是很真實的一面。
謝謝開複老師,也謝謝大家參與。
(本文首發于钛媒體App)
更多嘉賓精彩分享,點擊進入2024T-EDGE創新大會官網查看(https://www.tmtpost.com/event/dzb/tedge2024)