ChatGPT 爆火,引得全世界爲之瘋狂,恍惚中一夜之間,人人都在讨論 ChatGPT,所有大佬和資本紛紛湧進大模型。
上一次如此熱鬧還是 Web 3,不過相對前者是少部分人的自娛自樂,大模型則像魔法,引得全民爲之着迷,短短 2 個月内 ChatGPT 就收獲 1 億用戶,币圈甚至認爲過去 3 個月内 AI 創造的價值,超過了虛拟貨币曆史上創造價值的總和。而創業者和投資人對大模型更狂熱,更加充滿信念感,堅信大模型的曆史意義将不亞于電力的發明;而争奪大模型技術的領導地位,則像 " 研發核武器 "。
" 全球最聰明的人都在大模型創業,沒人會禁受得住它的誘惑。" 前極狐(GitLab)創始人陳冉這樣對雷峰網說。
一個資深技術極客趙亞雄博士亦是如此。2019 年從工作了六年的谷歌離職後,便一直奔赴在創業前線,最初加入創業公司 Pixie 小試牛刀,2022 年他決定回國,因爲國内湧現出的創業機會深深吸引着他——中國正在發展獨立自主技術體系,中國要做自己的 IT 技術棧,發展自己的技術生态。對他來說,腦海中有無數誘人的技術創新點子,但是在美國成熟的技術生态中,這些想法都顯得過于激進。
對他這樣一個在國外科技大廠經受過近十年技術訓練的人來說,這是一個難能可貴的機會。從 2008 年到 2019 年的十年裏,趙亞雄博士分别在 Amazon、Google 工作,在基礎軟件領域已經成爲一名資深的技術極客。
懂技術有國際視野還心懷一腔熱情,這是支撐他在人生的舒适期,從大廠離職出來完成自己創業夢想的基礎。
2022 年 10 月回國後,趙亞雄博士獲得奇績創壇創始人 CEO 陸奇博士的天使輪投資,開始了每周工作 100 小時以上的硬核模式。他長期關注 OpenAI 及矽谷創投生态,看到在自動駕駛長期無法獲得突破、AI 創業領域一片低迷的情況下,ChatGPT 從 11 月底橫空出世後,重新激發了全球範圍内對 AI 的狂熱。
" 未來一定是 AI 的世界 ",趙亞雄博士的商業猜想轉移到大模型。但他的商業方案 " 算想未來 " 不直接參與做大模型,而是要做大模型和 AI 應用的基礎設施。未來 " 算想未來 " 要做 AI 的基礎設施—— AI IaaS Cloud,區别于傳統的雲計算廠商,即一個以 AI 爲導向的雲計算廠商。
趙亞雄博士基于自己長期在 Google 爲 Google Brain、DeepMind 構建的大規模高性能機器學習計算平台上的經驗,敏銳地意識到中國大模型的研發,受制于基礎設施軟件薄弱、人才稀缺、以及 GPU 芯片禁售的風險。他堅信,接下來将迎來大模型大爆發,對算力的需求随之會暴漲," 算想未來 " 就是要承接住大模型帶來的這部分機會。
以下是雷峰網與趙亞雄博士的對話,講述了他對大模型的認知,對國内雲計算、SaaS 産品發展的分析以及 " 算想未來 " 的規劃。
要做大模 AI 的基礎設施
雷峰網:是什麽時候關注的大模型?
趙亞雄:2018 年我們就關注到來自 OpenAI 的博客 "AI and Compute"(https://openai.com/research/ai-and-compute)的一個結論:大模型的算力需求每 3.4 個月翻一番。我還在 Google 時,Google 就一直保持對大規模機器學習、深度學習的投入,我這邊所在的 Borg 團隊一直有專門的小組支持 Google Brain、DeepMind ,負責在大規模 GPU、TPU 集群上的資源管理和調度。
我們一直關注 Transfomer、GPT 的進展,但是 ChatGPT 的誕生确實完全出乎意料,的确完全超出了我們之前腦海中固化的 " 線性發展 " 的能力曲線。也從前同事了解到 ChatGPT 對 Google 的沖擊,感到非常震撼。
2018 年我們嘗試了 GPU Cloud 的創業方案,2020 年又嘗試了 Compute Infra with AI Chips,都沒有成功。當時最大的阻力在于,大規模的 AI 算力需求仍然隻是頭部大廠的小衆需求,市場空間有限。真正重新喚起我們對 AI 基礎設施的熱情,是在 3 月 27 日陸奇博士在奇績創壇得宣講會上,他認爲大模型已經帶來劃時代得變革。
3 月 27 号那天,陸奇博士召開了一個奇績創壇内部成員企業的轉型研讨會,主要是有關 AI、大模型。我們都知道陸奇博士他對 AI 領域的貢獻:作爲 AI 的一名布道者,他很早就參與過 OpenAI 的早期工作,在微軟也一直在做搜索及人工智能方面的技術管理,百度的 "All in AI " 戰略也是他制定的。
在這個研讨會上,通過陸奇博士的視角,讓我從整個人類社會經濟曆史、社會發展以及大模型帶來的機會,對大模型有了更加深刻的認識。
我們意識到 AI 基礎設施軟件,對中國大模型團隊追趕 OpenAI 至關重要。基于我們跟 OpenAI 基礎設施團隊過往的交流,我們認爲中國沒有可以匹敵 OpenAI 的基礎設施軟件技術團隊,這是 " 算想未來 " 的起點。
雷峰網:也就是我們要做 AI 的雲,但是現在國内公有雲競争已經是一片紅海了。
趙亞雄:傳統 Cloud 市場确實是紅海。但是大模型和 AI 應用的需求,完全不同于傳統 Cloud 所服務的軟件系統。在大模型和 AI 應用領域,大家的技術積累沒有質的差别。
首先我們看到中國現在有個最大的機會,就是中國正在發展獨立自主技術體系,也就是常說的國産替代,從政府到公衆、以及企業都推動。如此一來,從芯片,到服務器等基礎設施,再到上面的模型應用,都有機會完全獨立自主。每個層面都有全新的機會。
另外,因爲 AI 大模型帶來的 AI 算力的需求,包括 AI 的訓練和 AI 的應用研發,這些場景衍生出來的公有雲需求,會持續快速增長。我們有一個非常有名的統計數據—— OpenAI 在 2018 年寫的 AI and compute 的一個 blog,裏面介紹了他們統計的每個時間階段最大的深度學習模型,它訓練所需要的算力總額,每 3.4 個月就要翻一翻。那可想而知,随着未來 AI 持續地被更多人使用,算力以及從算力衍生出來的大數據還有 AI 應用研發,對基礎設施的需求會很快地超過傳統的雲計算。
雷峰網:能具體講講怎麽做 AI、大模型的基礎設施嗎?
趙亞雄:我們要做一個操作系統,或者說一個管理 AI 超級計算機的基礎設施軟件平台。
這個操作系統将 GPU(以及其他定制化的 AI 芯片)的算力,充分釋放給上層的 AI 訓練和推理,特别是大模型的訓練。我們現在要做的這個 GPU 計算平台軟件,實際上就是讓大模型訓練,可以高效地擴展到 GPU 集群所能允許的最大規模,提升訓練過程中對硬件的使用效率,加速大模型訓練的叠代速度,最終達到快速追趕 OpenAI 的目标。
通過擴大規模來提高硬件使用效率,縮短模型訓練的時間周期,原來可能要兩個月訓練,我們現在可以三個星期完成,快速地進行模型研發、叠代,從而加速去追趕 OpenAI ,盡早達到 OpenAI GPT 3.5 或者 GPT 4 的能力。
" 算想未來 " 第一階段關注提升分布式大模型訓練的規模;第二階段,我們會尋求國産 AI 算力的硬件,即 GPU 和其他 AI 芯片的合作,爲大模型及 AI 應用提供最具性價比的 AI 推理算力,并推出算想未來自己的 AI 算力基礎設施解決方案,來爲大中型企業建立私有 AI 雲。
" 算想未來 " 的最終目标,是在第三階段,集合大數據、訓練、推理以及其他 AI 計算相關的基礎設施能力和服務,立足中國、服務全球,成爲中國領先的 AI IaaS 雲服務提供商。
雷峰網:上面提到超級計算機,是類似 Meta 的 RSC(https://ai.facebook.com/blog/ai-rsc/)?
趙亞雄:AI 超算的這個概念,現在指的是一類專門來服務大規模機器學習和深度學習,還有其他 AI 訓練的一類集群式的計算平台。我們說的超算跟你提到 Meta 的 RSC,其它的系統還有 Google TPU Pod(https://cloud.google.com/tpu ) 、Tesla Dojo ExaPod(https://www.tesla.com/AI)這些都是同一類型的硬件系統。
AI 超算的硬件之上還有軟件層,那這個軟件層我們可以把它想象成, AI 超級計算機的操作系統,它最核心的是要提供一種能力:可以把底層硬件的算力資源,通過軟件的 API 形式,更容易地讓模型這些框架性的軟件高效率地對接起來,從而讓機器學習和人工智能的研究人員和 AI 應用的開發者,可以用盡量小的研發投入,來使用 AI 超級計算機下面的硬件計算能力。
雷峰網:國内做 AI 公有雲的,有百度百舸、火山引擎,我們是對标他們嗎?
趙亞雄:是的。百度百舸,是針對客戶自有硬件之上的私有化部署的軟件産品。" 算想未來 " 在第二階段推出的私有 AI 基礎設施解決方案,就會包含一個與百舸類似的軟件平台。而火山引擎中針對 AI 的基礎設施雲服務,包括網絡,相關大數據産品,也是我們未來要嘗試的方向。" 算想未來 " 的優勢在于,擁有來自矽谷一線大廠中核心 AI 基礎設施團隊,從事 AI 超算系統研發的實踐經驗。
另一個區别在于大家聚焦點不同," 算想未來 " 平台聚焦底層硬件資源的管理、優化、調度。而以上的産品專注在提供軟件工具來幫助機器學習研究者、AI 應用開發者,來更快速完成機器學習模型代碼和 AI 應用代碼的編寫。換言之," 算想未來 " 關注的是如何将硬件資源以軟件 API 的形式呈現給機器學習研究者、AI 應用開發者,讓模型訓練、AI 應用能更高效地使用硬件資源。
此外,我們的平台将聚焦在支持國産 GPU,目标是基于國産 GPU 構建媲美 nVidia 芯片的算力平台解決方案。以上百舸、火山引擎也支持其他非 nVidia GPU,但隻是将其作爲補充、并非核心。從技術獨立自主這個角度看,百舸、火山引擎并沒有優勢。
大模型的未來
雷峰網:前面提到 " 算想未來 " 是基于大模型做基礎設施,提供公有雲服務,那您怎麽看待國内這群做大模型的人和公司?我們聽到的有一種觀點是,目前國内這些做大模型的企業大多都是白費力氣,他們用的都是很老的算法,您爲什麽不直接切入做大模型,而是要做大模型的基礎設施?
趙亞雄:首先我認爲這些投資和大模型團隊的出現都是非常好的,對中國的 AI 發展有積極作用。
這一次,在人工智能方面,中國和美國的差距通過 ChatGPT 放大出來。以前官方報道的中國人工智能的水平,很多是通過專利、論文,還有畢業工程師和博士的數量等等,這種量化指标來體現。那這些量化指标有個很大的缺陷,就是沒有關注 AI 理論研究的實際水平,以及支持 AI 理論研究和應用軟件系統的基礎設施(包括硬件、軟件)的能力, AI 應用實際落地的商業閉環和對 Ai 技術生态的飛輪效應。
ChatGPT 讓我們看到美國整個生态是有更深的 " 内功 ",以前不過是發 " 大招 " 之前的蓄力,看上去平平常常,一爆發就震驚世界。
當然差距沒有想象中那麽大。相比之前各個輪次的創業熱點來說,這次的熱點是一個完全由技術驅動的創業熱潮。上一輪技術驅動的熱潮是無人車,但當時的問題是它是以美國的團隊爲核心,像小馬智行、文遠知行等,實際上都是美國的人才在美國的土地上來做這件事情,雖然接受了大量中國風投的資金,但是它整個還是美國公司。
這一次大模型的創業有一個非常好的變化,就是中國本土的人員搭上本土的資金,然後也是完全關注中國本土市場,而且完全由技術驅動。
以技術驅動的創業,最後能取得好的商業成果的概率都是很低的。這是毋庸置疑的。但是,技術驅動的創業所積累下來的技術成果,在未來都是有更大機會在新的場景下發揮價值,這跟以往的商業模式驅動的同質化創業競争區别就在這兒。商業模式同質化競争的失敗者,他所積累的東西本身幾乎沒有複用價值,至多就是提供給後來者如何規避商業競争中的同類風險。
" 算想未來 " 的信心在于,我們能搭建一個世界一流的工程團隊,擁有在矽谷頭部企業研究團隊中實踐大模型訓練的技術經驗,根據我們在美國的技術經驗和技術的實踐成果,把這些技術能力轉移到國内來做第一批早期客戶。
我們最近也是跟國内的大模型團隊,還有其他的曆史更長的一些人工智能公司做交流。我們很明顯地感覺到,大家對基礎設施方面有一些共性的技術問題,都是我們之前在 Google 還有其他的公司都已經解決過的。所以在技術解決能力上我們很有信心。
雷峰網:您說我們正在跟很多大模型團隊有過讨論,能透露一下接觸過哪些團隊嗎?
趙亞雄:所有中國過去一段時間出現的大模型團隊,我們都在接觸中。另外還有一些傳統的 AI 應用廠商,大家耳熟能詳企業,我們也在積極地做業務拓展,具體的信息在 " 算想未來 " 後期有了階段性成果之後,肯定會公布出來。
雷峰網:既然您同意國内大模型創業公司隻有 30+ 家,競争激烈,後期活下來的也不會很多。那麽," 算想未來 " 闖進 AI 的基礎設施領域,市場空間有多大?
趙亞雄:首先要明确一點,我們的 AI IaaS Cloud 隻是從服務大模型團隊做切入,實際上我們的願景是 AI 基礎設施的雲服務,它無論是大模型、中模型,還是小模型,甚至是邊緣的,甚至是嵌入式移動端的,都會有相應的需求。我們會爲所有的企業提供相應的訓練、推理,還有大數據以及其他支撐性的軟件服務,像 MLOPs、AI 應用框架、Serverless AI 等等這些。
目前大模型創業,是争奪大模型市場的領導地位,其中絕大多數企業都會在競争中被淘汰,從而消失,或者隻享有極小的市場份額。但是這不意味着未來隻有極少數幾家大模型團隊。實際上在主流投資圈關注的視野之外,有很多大模型團隊都在默默地自由生長着。最後的格局應該是少數幾家頭部,後面跟了大量長尾的大模型團隊服務各個行業客戶。
另一個方面,大模型訓練也不是少數企業才會有的需求。因爲大模型開啓了 AI 經濟的序幕,意味着一般意義上的 AI 模型即将被大多數消費者、軟件廠商所接受。
此外,雖然大模型與傳統手工編寫的軟件,采用了完全不同的生産方式,但大模型仍然是一種軟件,仍然需要在使用過程中不斷進行重新訓練、微調來滿足用戶的具體需求,這導緻需求會源源不斷。
正如用戶在使用開源軟件,都或多或少會進行相應的定制,因此不會出現由少數幾個大模型公司壟斷模型訓練、推理的情況。
綜上,我們認爲以大模型訓練爲開端,逐步擴大和深入的國内 AI 經濟,将會是一個多元多維度不斷發展的市場,不會是單一的,也不會是停滞的市場。
雷峰網:大模型會給中國軟件産業帶來什麽樣的影響?
趙亞雄:鑒于中國經濟的獨特結構,國有企業主導的、以公有制主體的經濟格局,要有美國模式的 SaaS 産品出現,成本太高了。
大模型的出現意味着以 AI 爲主體的軟件服務,會給中國軟件産業帶來跳躍式發展。如同中國跳過 PC 互聯網的成熟而直接進入移動互聯網,中國的軟件服務業也會跳過 SaaS 進入 AiaaS 階段,這意味着絕大部分軟件應用都會用 AI 模型來支持其功能,也意味着更廣泛的 AI 算力需求,這正是 " 算想未來 " 最關注的市場空間。
如此一來,國内的 AI 基礎設施市場有機會出現一個 " 爲中國 AI 經濟而生的 AWS",在 AI 雲上也随之能長出如 Netflix 這樣的現象級 SaaS 應用。這是 " 算想未來 " 的機會和目标。
但國内這些以大模型爲核心的公司,不會成爲像 AWS 那樣的大公司。我們當然是希望王慧文這樣的成功創業者,能走出一條出人意料的商業化路徑,這也是我們願意跟所有的大模型團隊,一起來琢磨在更大的集群上跑更大的模型的辦法,首先完成對 OpenAI 的追趕,然後大家再厮殺角逐出最強的團隊,跑出最好的商業模式。
雷峰網:爲什麽國内這批以大模型爲核心的創業公司,不會成爲像 AWS 那樣的大公司?
趙亞雄:假設這些大模型公司,打算以大模型構建公有雲平台,那這意味着大模型要具有廣泛的應用能力,來爲其他 AI 應用團隊提供一種等同于(現有公有雲上的)IaaS 能力,換句話說,AI 應用團隊要能夠使用大模型來搭建自己的 AI 應用。
這就存在兩個問題:1、大模型的泛化能力有待驗證。現在僅僅依靠文本語言作爲媒介的大模型,雖然表現出了類人的能力,但是難以想象這種能力如何作爲基礎能力,來嵌入其他應用,即商業化場景模糊。
2、大模型的技術壁壘有限。llama 意外開源之後,其能力已經接近、或部分超越 GPT3,雖然 GPT4 的能力大幅提升。但是在大廠之間,模型的能力差距在 3 年之内(以兩者發布時間爲對比, llama 2023 年對比 GPT3 2020 年),并且這個差距是在 meta 等企業無意持續擴大模型和訓練數據規模的情況下産生的。OpenAI 尚且可以憑借先發優勢,保證市場主導地位,而國内公司由于均處于同一出發點,而且在技術路線上完全跟蹤 OpenAI,因此并不存在一家獨大的現實基礎。
當然一切仍需由市場、時間給出答案。美團誕生之初,恐怕也很難以預測其能成長爲 O2O 的統治者吧。
國内 SaaS 的機會?
雷峰網:回到 " 算想未來 ",名字是您取的嗎?有什麽樣的含義或者寄予了怎樣的意義?
趙亞雄:一開始項目名字叫初芯,大概意思就是說 AI 的計算,但是很多人反映聽上去像一個做芯片的公司,就換成了 " 算網 "。
因爲我們是一個雲計算公司,這是 " 網 " 代表的含義。那 " 算 " 則是對計算需求的體現。算網加在一起,代表我們就是一個做計算的、一個雲的提供商。因爲在未來比較長一段時期裏面,我們相信 AI 算力需求會成爲人類所有的算力需求裏面最主流的、最重要的這一部分。算網這個階段正是要服務 AI 計算的需求。
我們覺得 " 算網 " 非常順口,但很快因爲這個名字注冊不到公司和商标。團隊一起頭腦風暴後有了 " 算想未來 " 這個名字。
" 算想未來 " 表達了我們對未來 AI 算力需求的願景,算、想這兩個字代表以計算爲基礎,通過 AI 技術服務人們的想象力、創造力。" 算想未來 " 代表用計算将人們想象中的未來,變成現實的使命。
雷峰網:以前的職業生涯對您此次創業有什麽啓發和幫助?
趙亞雄:我在 Amazon Kinesis 待了 1 年不到,Google 做了快 6 年,後來以早期員工身份加入 Pixie 并被 New Relic 收購。這些年裏我一直在做雲基礎設施、AI 基礎設施相關的工作,積累了很多經驗。
例如,參與過 Amazon 一個很有名的雲産品 Kinesis;2015 年加入 Google 的 Borg 團隊,負責 Google 内部所有服務器集群,它類似一個 K8S 的平台;2018 年之後,以我爲主在 Borg 内部開啓了一個新項目,即讓 Borg 上面的應用開發者,可以更容易地開發管理他自己的業務,這個系統用到了機器學習來優化集群管理和資源調度,同時也提高了 Borg 平台上的底層硬件資源的使用效率。
Borg 後期的工作,主要的重點都是來支持機器學習和人工智能,就像網絡層的話,我們給機器學習這些算力芯片都專門設計了高性能的網絡。我也直接參與和領導了 Google 内部全球化 GPU 算力池的項目,目的是讓 Brain、DeepMind 的 AI 研究者和工程師,非常容易地把機器學習訓練任務跑在全球各地的數據中心裏。
2019 年作爲第四号員工,正式加入 Pixie 初創公司,這個公司的軟件工程體系是我跟創始人一起,按照 Google 的實踐經驗來搭建的。
具體來說,Pixie 算是我第一次正式創業,它是一家矽谷初創公司,産品是面向 Kubernetes 的微服務觀測平台,創新點是用 eBPF(Linux 内核中的可觀測性 API)實現無侵入式的數據采集。Pixie 曾獲得頂級 VC Benchmark & GV 的投資,并于 2020 年 12 月被應用性能監控領域的老牌廠商,同時在紐約證券交易所上市公司 New Relic 收購。
其實,Amazon 和 Google 的經曆,除了讓我在技術上得到曆練和積累,更多的是對我創業精神的影響。Amazon 和 Google 都是極具創業文化的公司,在 Amazon,内部每個團隊都可以作爲一個小的創業公司,來定位自己的業務方向;而 Google 鼓勵員工創業,在員工離職創業後,想要再加入 Google 并不需要面試,這給了員工很大的心理保障和激勵。
雷峰網:作爲初創公司,我們怎麽與百度百舸、火山引擎這些大廠的産品來競争?
趙亞雄:這是一個很重要的問題,也是我和 COO 李靜,包括其他創始團隊成員每天都在花時間思考的一個問題。
技術角度,最大的優勢在于我們有後發優勢,這是在出現一次巨大技術變革之後,新入局的玩家共同具有的一個優勢。
在大模型帶來的 AI 計算需求之前,在所有主流平台上的 AI 需求都不是主流的需求,所以大家對該問題的研究都是很有限的。換句話,今天我們跟他們其實是處在同一個起跑線上。
對比大廠有錢有資源,初創企業勝在小而精悍,整個團隊凝成一股勁之後的戰鬥力,是很多大廠比不了的,對此我在 Pixie 深有感觸。這也是我創業 " 算想未來 " 的動力和信心來源之一。
當遇到一個非常難的一個技術問題的時候,創業公司往往整個團隊更加執着,以及整個團隊的緊密合作最後得出來的解決方案,其質量遠高于大廠。
這可以用 " 木刀 " 和 " 鋼刀 " 來比喻大廠和初創企業,相比木頭,鋼鐵更鋒利是因爲它的元素更緊密地貼合在一起,密度大。大廠更像是一個木質的機構,自然會面臨組織能力渙散、退化。所以 " 算想未來 " 要解決的就是如何長期擰成一股繩,保持高戰鬥力,跟大廠對抗,如何能始終保持這種凝聚力,這是我們最核心、最關鍵要考慮的問題。
具體到正在做的事情。我們的核心團隊成員都是來自國際大廠的 infra 技術專家,同時我們能時常與 OpenAI、 MSR 、Google、DeepMind 這些 AI 先進團隊保持密切交流、合作,從而從各個層面了解世界前列對 AI 的趨勢判斷。這是國内以業務驅動的 AI 團隊所不能比拟的,因爲我們所了解的信息始終比他們要高一個層次。
我們更多是把 AI 作爲一種改變世界的技術手段,而不是服務某項特定業務的技術能力來看待。所以我們能看到中國的 SaaS 實力不足,過去中國經濟發展實際上沒有辦法支持,如美國那麽大規模的 SaaS 企業,隻有 AI 這樣的技術工具出現,我們才能以更高效的方式來實現軟件服務。
最基本的邏輯是美國的 SaaS,現在都是以公有雲爲支撐的數據的搬運和處理,那它對數據本身的大小處理并沒有實質性的變化。有了大模型之後,就可以把上 TB 的數據濃縮到幾百 G 的模型裏面,再加上模型還有自學習能力,實際上便可以大大降低軟件服務在交付功能過程中,對數據的這個依賴程度,如此就能大大提升軟件服務的效率。
這也是爲什麽中國的 SaaS 在國内反而發展不起來,因爲市場給它的空間很有限,但對它的效率要求又非常高,又沒有一個技術手段,能用更高效率來實現這些軟件服務。現在有了大模型後,我們意識到在技術上用 AI 的通用手段來實現軟件服務,會比傳統的 SaaS 模式效率更高,而且是可行的。
綜上," 算想未來 " 對 AI 價值的認知,比我們接觸到的國内這些大廠或者是其他創業公司,要走在更前面。
雷峰網:我們的團隊籌備情況如何?
趙亞雄:李靜是我們的 COO,她之前在高盛做投後管理,我們的首席科學家和 CTO,他們分别都是在日本和美國 AI 研究和應用領域知名的研究機構供職,但現在不方便透露他們的具體身份。
目前我們正在加速籌備完整的團隊,同時也已經開始跟很多大模型團隊做業務探讨。我們已經在推進與國内知名的語言類 AI 産品供應商的合作,來推進幫他們如何提升大模型訓練,即 GPU 的使用效率。
總體上來說,我們是一個進展非常快的團隊,因爲機會很重要,我們一直是以成爲中國 AI IaaS Cloud 領導者的目标來快速推進。像我的話,基本上從去年 10 月份到現在,每天都是 997 的工作節奏。
雷峰網:您認爲未來國内 SaaS 會如何發展?
趙亞雄:因爲 Netflix 它是傳統雲計算上的一個殺手級應用,是伴随着 AWS 的成長逐漸長出來一個 SaaS 産品代表。我們希望未來在 " 算想未來 " 的平台上,也可以生長出一個能颠覆現在各類 To C 互聯網企業的,一個全新的,以 AI 爲核心的一個消費者應用。