(圖片來源:英偉達官網)
3月初舉行的GTC大會上,英偉達CEO黃仁勳(Jensen Huang)公布了新一代芯片平台Blackwell,創新軟件NIMs、AI平台NEMO和AI工坊(AI foundry)服務,以及仿真平台Omniverse和适用于自主移動機器人的Isaac Robotics平台,引發全球關注。
黃仁勳表示,采用新架構的Blackwell的新一代AI圖形處理器(GPU)"非常非常強大",第一款Blackwell芯片名爲GB200,将于今年晚些時候上市。
會後,黃仁勳進行了兩場媒體和分析師對話,其中包括一個半小時的GTC投資分析師問答活動。
投資者會議上,黃仁勳坦言,英偉達不止是芯片公司,而是一家擁有 AI 系統軟件和生态系統的基礎設施公司。
"加速計算已到達臨界點,通用計算已失去動力,"黃仁勳坦言,我們需要一種全新的計算方式,由此才可以繼續擴展,繼續降低計算成本,并在保證可持續性的同時繼續進行越來越多的計算。與通用計算相比,加速計算使每個行業都可以大幅提速。
黃仁勳表示,英偉達計劃以 3 萬至 4 萬美元的價格出售用于 AI 和 HPC 工作負載的全新Blackwell GPU B200。不過,這隻是一個大概的價格,因爲英偉達更傾向于銷售面向數據中心的整體解決方案,而不僅僅是芯片或加速卡本身。
Raymond James 分析師則認爲,英偉達 H100的硬件成本約爲 3,100 美元,而 B200的硬件成本則大幅提高到了 6000 美元。如果英偉達計劃以 3 萬至 4 萬美元的價格出售B200,那麽則意味着該芯片的毛利率将會高達80%-85%。
黃仁勳指出,Blackwell不僅僅是一塊芯片,還是一個計算機系統。Blackwell極大地提升了行業标準,即便是ASIC也難以匹敵。英偉達構建了一台完整的超級計算機,提供從芯片到系統,再到NVLink、網絡、軟件的全套解決方案。
黃仁勳還強調,英偉達賣的是整個數據中心,公司軟件業務長期可能與芯片業務同樣重要。
他預測,機器人的ChatGPT時刻指日可待,英偉達已經爲機器人構建了一個全新的"操作系統"。
"我們的獨特之處在于,我們相信我們是唯一一個能夠創造自己市場的芯片公司,看看我們正在創造的所有市場,我們通過軟件驅動需求,反過來促進芯片的發展。這種模式讓英偉達不僅成爲了技術的創新者,更成爲了市場的引領者。"黃仁勳表示。
黃仁勳指出,英偉達是一個市場制造者,而不是份額争奪者。
早前摩根士丹利活動上,英偉達CFO Colette Kress表示,她看到了AI和加速計算的巨大商業潛力,預計AI基礎設施市場規模将遠不止現在的1萬億美元。黃仁勳曾在一次路演中表示,該市場規模可能接近2萬億美元。
"今天,全球數據中心的市場規模是1萬億美元......每年有2500億美元的市場......我們在每年2500億美元市場中所占的百分比可能會比過去高得多。"黃仁勳表示。
Kress強調,英偉達不僅僅将自己定位爲一個提供AI芯片的硬件公司,而是一個爲數據中心提供整體加速計算解決方案的公司。随着更多産品的推出,英偉達的毛利率可能會回落到75%左右的水平,這是因爲公司目前處于H100推動增長期後的産品多樣化階段。
"當你考慮到下一代産品的可用性,以及供應可能會緊張時,但同時也要考慮認證周期時,最棒、最先進的産品仍然是H100。"Kress表示。
針對推理業務貢獻公司40%收入的疑問,Kress透露,英偉達擁有龐大的推薦引擎和搜索基礎,考慮到生成式AI 正處于早期發展階段,公司推理業務将會持續增長。(新的GenAI,尤其是多模态、新的更強大模型帶來的更廣泛應用,是未來的關鍵)
"談到推理,這是個很好的問題。正如我們之前讨論的,推理占總需求的40%,未來增長依然可觀。我們關注的推理領域不限于标準數據外,視頻以及其他新興領域,如推薦引擎和生物學應用,都是我們的關注重點。至于政府(人工智能)支出,初期更多集中在訓練上,特别是在自然語言處理和本地化領域。爲一個國家或地區構建大型模型是初期的主要任務。在美國以外,政府資助與企業共同努力,兩者都有所涉獵。當然,訓練完成後,應用開發和解決方案定制也是關鍵。"Kress表示。
數據中心之外,英偉達還将目光轉向了個人電腦和工作站。Kress表示,未來模型不僅能存在于雲中,筆記本上也能部署較小的語言模型。
"我們将架構周期從2年縮短到1年...但即使在同一架構内,我們現在也有能力推出其他關鍵産品,以滿足市場的某些需求。H200就是一個例子,它是在H100的基礎上構建的。"Kress稱。
至于首次公布的NIMs AI 軟件方面,黃仁勳稱,英偉達提供了兩條路徑幫助企業級客戶接入AI。一條是通過網站和廣泛的解決方案提供商網絡,使得NIMs能夠被轉換成适用的應用程序;另一種方向是,向企業提供工具加上協作工具的解決方案。"我認爲這裏會發生重大變革。這将是一個非常大的業務,這是工業革命的一部分。"
"在未來五到八年内,我們将開始看到自家基礎設施的更新周期。盡管如此,但我認爲目前的更新不是最佳的資本利用方式。"黃仁勳稱。
黃仁勳認爲,長期來看,英偉達軟件業務可能與芯片業務同樣重要。企業軟件領域有巨大潛力。
黃仁勳強調,英偉達不僅是一個提供加速芯片公司,而是一個緻力于數據中心加速計算的公司,市場潛力更大。
以下是英偉達GTC大會期間的投資者問答活動,由kimi和ChatGPT進行 AI 翻譯和整理,钛媒體App進行部分人工修正:
公司參與者:Jensen Huang(黃仁勳)- 創始人兼首席執行官;Colette Kress - 執行副總裁兼首席财務官。
電話會議參與者:Ben Reitzes - Melius Research;Vivek Arya - 美國銀行美林;Stacy Rasgon - 伯恩斯坦研究;Matt Ramsay - TD Cowen;Tim Arcuri - 瑞銀;Brett Simpson - Arete Research;C.J. Muse - Cantor Fitzgerald;Joseph Moore - 摩根士丹利;Atif Malik - 花旗集團;Pierre Ferragu - New Street Research;Aaron Rakers - 富國銀行;Will Stein - Truist Securities。
黃仁勳:早上好。很高興見到大家。我們很久沒有親自見面了。我和Colette在這裏是爲了回答你們昨天的問題。
Colette Kress:好的。我們這裏人很多,感謝大家的參與。Jensen和我将回答你們昨天的問題。我們将通過一系列在過道的人來與你們互動,你們可以舉手,我們會用麥克風回答你們的問題。Jensen會補充一些開場白,然後我們開始今天的問答環節。聽起來怎麽樣?
我将把話筒交給Jensen,看他是否想補充一些開場白,因爲我們将不做正式的演講,隻進行問答。
黃仁勳:謝謝。很高興見到大家。昨天有很多我想說的話,可能沒有說得很好,但我要告訴你們,我以前從未在搖滾音樂會上做過演講。我不知道你們怎麽樣,但我從未在搖滾音樂會上做過演講。我模拟了它将是什麽樣子,但當我走上舞台時,它仍然讓我屏息。無論如何,我會盡力而爲。
我想告訴你們一些事情。有沒有遙控器——哦,看那個。看,這就是空間計算。順便說一下,如果你有機會看到Omniverse Vision Pro,那是令人瘋狂的。完全無法理解它有多真實。
所以我們昨天談到了五件事,我認爲第一件确實值得一些解釋。
我認爲第一件事當然是這場新的工業革命。發生了兩件事、兩個轉變。
第一個是從通用計算轉向加速計算。如果你隻看通用計算的趨勢,它在過去幾年中已經大大放緩。
事實上,我們知道這一趨勢已經放緩了大約十年,人們隻是不想處理它,但你現在真的必須處理它。你可以看到人們因此延長了他們的數據中心的折舊周期。你可以購買一整套新的通用服務器,但它不會顯著提高你整個數據中心的吞吐量。
所以你可能還不如繼續使用你現有的設備。這一趨勢永遠不會逆轉。通用計算已經走到了盡頭。我們将繼續需要它,還有很多軟件在它上面運行,但很明顯我們應該加速我們能加速的一切。
有許多不同行業的工作負載已經被加速,有些是我們非常希望進一步加速的。但加速計算的好處是非常明顯的。
昨天我沒有花時間讨論的領域之一是數據處理。NVIDIA有一套庫,在你能在公司做任何事情之前,你必須處理數據。當然,你必須攝取數據,數據量是非凡的。全世界每兩年數據量翻倍,盡管計算能力并沒有每兩年翻倍。
所以你知道,在數據處理方面,你已經在曲線的錯誤一側。如果你不轉向加速計算,你的數據處理費用隻會不斷上升。因此,許多認識到這一點的公司,如阿斯利康、Visa、美國運通、萬事達卡等,我們已經将他們的數據處理費用降低了95%,基本上是20倍的減少。
以至于我們現在的加速如此驚人,我們的一套名爲rapids的庫,Spark的發明者,他創立了一個偉大的公司叫做Databricks,他們是雲大規模數據處理公司,他們宣布他們将使用NVIDIA GPU來加速他們的光子引擎。
好的,所以加速的好處,當然,可以傳遞給你的客戶節省的費用,但非常重要的是,這樣你可以繼續可持續地計算。否則,你會一直處于曲線的錯誤一側。你永遠不會站在正确的一側。你必須加速。問題是今天還是明天?好的,所以加速計算。我們加速算法的速度如此之快,以至于在過去的十年中,計算的邊際成本已經大大降低,這使得一種新的軟件方式成爲可能,稱爲生成式AI。
正如你所知,生成性AI需要大量的浮點運算,大量的計算。這不是正常的計算量,而是非常大量的計算。然而,現在它可以成本有效地完成,消費者可以使用這種令人難以置信的服務,稱爲ChatGPT。所以,值得考慮的是,加速計算已經降低了計算的邊際成本,以至于使得一種新的事物成爲可能。
這種新方式是由計算機編寫的軟件,原材料叫做數據。你給它能量。有一種叫做GPU超級計算機的儀器。它産生的是我們享受的标記。當你與ChatGPT互動時,你得到的是它産生的标記。
現在,那個數據中心不是普通的數據中心。它不是你過去所知道的數據中心。原因是這個。它不是由很多人共享的。它不做很多不同的事情。它24/7運行一個應用程序。它的工作不僅僅是爲了節省錢,它的工作是爲了賺錢。它是一個工廠。
這與上一次工業革命中的交流發電機沒有什麽不同。它與原材料進來的是水沒有什麽不同。他們給它能量,它變成了電。現在是數據進來。它通過數據處理進行精煉,然後當然是生成式AI模型。
它産生的是有價值的标記。我們将這種基本的軟件方法,有些人稱之爲推理,但标記生成。這種生産軟件,生産數據,與你互動的方法,ChatGPT與你互動。
這種與你合作,與你協作的方法,你可以盡可能地擴展這個想法,人工智能代理的Copilot,你可以盡可能地擴展這個想法,但基本上是同樣的想法。它生成軟件,它生成标記,它來自我們稱之爲GPU超級計算機的AI發生器。這有道理嗎?
所以這兩個想法。第一個是我們今天使用的數據中心應該被加速,它們正在被加速。它們正在被現代化,越來越多的行業一個接一個地加速。所以世界上價值數萬億美元的數據中心最終都将被加速。問題是,這需要多少年才能完成?但因爲第二個動态,它在人工智能中的好處是不可思議的,它将進一步加速這一趨勢。這有道理嗎?
然而,第二種數據中心,我稱之爲交流發電機或者對不起,AI發生器或者AI工廠,這是一種全新的東西。這是一種全新的軟件,生成一種全新的寶貴資源,它将由公司、行業、國家等創造,一種新的行業。
我還談到了我們的新平台。人們對Blackwell有很多猜測。Blackwell既是系統核心的芯片,但它實際上是一個平台。它基本上是一個計算機系統。NVIDIA所做的不僅僅是制造芯片。我們構建了從芯片到系統、互連、NVLinks、網絡,但非常重要的是軟件。
你能想象有多少電子産品被帶入你的家裏,你将如何編程?如果沒有多年來創建的所有庫,以使其有效,你就帶了價值幾億美元的資産進入你的公司。
而且任何時候它沒有被利用,都會花費你的錢。而且費用是不可思議的。所以我們幫助公司不僅僅是購買芯片,而是啓動系統并投入使用,然後與他們一起工作,使它——更好地、更好地、更好地使用,這真的很重要。
好的,這就是NVIDIA所做的。我們稱之爲Blackwell的平台擁有我在演示結束時向你展示的所有這些組件,讓你感受到我們所構建的規模。所有這些,我們然後将其拆解。這是我們所做的非常非常困難的部分。
我們構建了這個垂直整合的東西,但我們以可以拆解的方式構建它,這樣你就可以購買它的部分,因爲也許你想将它連接到x86。也許你想将它連接到PCIE。也許你想将它連接到一堆光纖、光學元件。
也許你想要非常大的NVLink域。也許你想要更小的NVLink域。也許你想使用arm,等等。這有道理嗎?也許你想使用以太網。好吧,以太網對AI來說并不好。不管任何人怎麽說,事實就是如此。
你不能改變事實。以太網對AI來說并不好,有原因。但你可以讓以太網對AI變得很好。在以太網行業的情況下,它被稱爲Ultra Ethernet。所以大約三四年後,Ultra Ethernet将會到來,它對AI會更好。但在那之前,它對AI來說并不好。它是一個好網絡,但對AI來說并不好。所以我們擴展了以太網,我們給它增加了一些東西。我們稱之爲Spectrum-X,它基本上做了自适應路由。它做了擁塞控制。它做了噪聲隔離。
記住,當你有健談的鄰居時,它會占用網絡流量。而AI,AI并不關心平均吞吐量。AI并不關心網絡的平均吞吐量,這就是以太網的設計目的,最大平均吞吐量。AI隻關心最後一個學生什麽時候交上他們的部分産品?它是最後一個人。一個完全不同的設計點。如果你優化的是最高平均值而不是最差的學生,你會得出不同的架構。這有道理嗎?
好的。而且無論如何,你可以将所有東西網絡在一起。但你會損失10%、20%的利用率嗎?是的。如果計算機價值1萬美元,那麽10%到20%的利用率并不多。但如果計算機價值20億美元呢?它支付了整個網絡的費用,這就是超級計算機被建造的方式。
所以無論如何,我展示了所有這些不同組件的例子,我們的公司創建了一個平台,以及與之相關的所有軟件,所有必要的電子産品,然後我們與公司和客戶合作,将其集成到他們的數據中心,因爲他們的安全可能不同,也許他們的熱管理不同,也許他們的管理平面不同,也許他們隻想用它專門用于一個AI,也許他們想租用它讓很多人用它做不同的AI。
用例非常廣泛。也許他們想建立一個本地的,他們想在上面運行VMware。也許有人隻想運行Kubernetes,有人想運行Slurm。好吧,我可以列出所有不同種類的環境,這完全是令人震驚的。
我們考慮了所有這些因素,在相當長的一段時間裏,我們現在知道如何真正地爲每個人服務。結果,我們可以大規模地構建超級計算機。但基本上NVIDIA所做的是構建數據中心。好的。我們将其分解成小部分,然後作爲組件出售。人們認爲因此我們是一家芯片公司。
我們做的第三件事是我們談到了這種新的軟件類型,稱爲NIMs。這些大型語言模型是奇迹。ChatGPT是一個奇迹。它不僅在它所能做的事情上是奇迹,而且在你能以非常高的響應率與ChatGPT互動的團隊上也是奇迹。這是一個世界級的計算機科學組織。這不是一個普通的計算機科學組織。
OpenAI團隊正在研究這些東西,他們是世界上最好的團隊之一。好吧,爲了讓每家公司都能建立自己的AI,運營自己的AI,部署自己的AI,在多個雲上運行,有人必須爲他們去做計算機科學。所以,我們決定不是爲每個單獨的模型,每個單獨的公司,每個單獨的配置去做這件事,而是創建工具和工具包,以及運營,我們将首次打包大型語言模型。
你可以購買它。你可以隻是來到我們的網站,下載它,然後你可以運行它。我們向你收費的方式是所有這些模型都是免費的。但當你在企業中運行它時,運行它的成本是每個GPU每年4500美元。基本上是運行該語言模型的操作系統。
好的。所以每個實例,每次使用的成本非常低。它非常非常實惠。而且——但好處是非常大的。我們稱之爲NIMs(英偉達推理微服務)。你将擁有各種類型的NIMs。你将擁有計算機視覺的NIMs。你将擁有語音和語音識别以及文本到語音的NIMs,你将擁有面部動畫。你将擁有機器人關節。你将擁有各種不同類型的NIMs。
你使用這些NIMs的方式是,你可以從我們的網站下載它,然後用你的例子微調它。你會給它例子。你說,你對那個問題的回答方式不太對。在另一家公司可能是對的,但在我們這裏是不對的。所以我會給你一些例子,這正是我們希望它看起來的樣子。你展示你的工作産品。這就是——這就是一個好的答案看起來的樣子,一大堆。
我們有一個系統幫助你策劃這個過程,标記所有與AI處理相關的數據,微調它,評估它,設置邊界,以便你的AI非常有效,第一,也非常狹窄。
你希望它非常狹窄的原因是,如果你是零售公司,你希望你的AI不要随便談論一些随機的東西,好嗎。所以無論問題是什麽,它都會把它引導回那個車道。所以那個設置邊界的系統是另一個AI。所以,我們有所有這些不同的AI幫助你定制我們的NIMs,你可以創建各種不同類型的NIMs。
我們爲其中許多提供了框架。其中一個非常重要的是理解專有數據,因爲每家公司都有專有數據。所以我們創建了一個名爲Retriever的微服務。它是最先進的,它幫助你把你的數據庫,無論是結構化的還是非結構化的圖像、圖表或圖表,我們幫助你嵌入它們。
我們幫助你從這些數據中提取意義。然後我們取——它被稱爲語義,語義嵌入在一個向量中,這個向量現在被索引到一個新的數據庫中,叫做向量數據庫,好嗎。然後之後,你可以和它交談。你說,嘿,我有多少哺乳動物,例如。它進去說,嘿,看那裏。你有一隻貓,你有一隻狗,你有一隻長頸鹿。
這是你庫存中的東西,在你們的倉庫裏,你有,好嗎,等等。所以所有這些都被稱爲NeMo,我們有專家可以幫助你。然後我們把我們的——我們把一個标準的NVIDIA基礎設施,我們稱之爲DGX Cloud,放在世界上所有的雲中。所以我們在AWS中有DGX Cloud,在Azure中有DGX Cloud,在GCP和OCI中有DGX Cloud。
所以我們與世界上的公司合作,特别是企業IT公司,我們與他們一起創造這些偉大的AI,但當他們完成時,他們可以在DGX Cloud中運行,這意味着我們有效地将客戶帶到世界上的雲中。像我們這樣的平台公司,系統制造商客戶和CSPs是系統制造商。他們租用系統而不是銷售系統,但他們是系統制造商。所以我們把客戶帶到我們的CSPs,這是非常有意義的,就像我們把客戶帶到HP、Dell、IBM、聯想等等,Supermicro、CoreWeave等等,我們把客戶帶到CSPs,因爲平台公司就是這樣做的。這有道理嗎?
如果你是一家平台公司,你會爲你的生态系統中的每個人創造機會。所以DGX Cloud讓我們能夠在世界上的CSPs中落地所有這些企業應用程序。他們想在本地進行。我們昨天宣布了與Dell的偉大合作夥伴關系,HP等等,你可以在他們的系統中部署這些NIMs。
然後我談到了AI的下一波浪潮,這實際上是關于工業AI。這個——世界上最大的行業,以美元計,是重工業,重工業從未真正從IT中受益。他們沒有從設計中受益,也沒有從數字化中受益。
這被稱爲不是數字化,而是數字化,将其投入使用。他們沒有像我們的行業那樣從數字化中受益。因爲我們的行業已經完全數字化,我們的技術進步是驚人的。我們不稱之爲芯片發現。我們稱之爲芯片設計。爲什麽他們稱之爲藥物發現,就像明天可能與昨天不同?因爲它是。而且它如此複雜——生物學如此複雜——它如此變化——而且縱向影響如此之大,因爲,正如你所知,生命進化的速度與晶體管不同。所以因此,因果關系更難監控,因爲它發生在大規模的系統和大規模的時間上。這些都是非常複雜的問題。物理學非常相似。
好的。工業物理非常相似。所以我們終于有能力使用大型語言模型,同樣的技術。如果我們可以将蛋白質标記化,如果我們可以将——如果我們可以将語音标記化,我們可以将圖像标記化,我們可以将關節動作标記化。這與語音沒有什麽不同,對吧?
我們可以将蛋白質的運動标記化,這與語音沒有什麽不同,好嗎。我們隻是——我們可以将所有這些不同的事情标記化。我們可以将物理學标記化,然後我們可以理解它的意義,就像我們理解單詞的意義一樣。
如果我們能理解它的意義,并且我們可以将其與其他模态連接起來,那麽我們就可以做生成性AI。所以我很快解釋了一下,12年前我在ImageNet看到了這一點。我們公司看到了這一點。大型突破實際上是12年前。
我們說,有趣,但我們實際上在看什麽?有趣,但我們在看什麽?ChatGPT,我會說,每個人都應該說有趣,但我們在看什麽?我們在看什麽?我們正在看一個計算機軟件,它可以模仿你——模仿我們。
通過閱讀我們的話,它模仿了我們話語的産生。爲什麽——如果你可以将單詞标記化,如果你可以将關節動作标記化,爲什麽它不能模仿我們并将其推廣到ChatGPT已經做到的方式。所以機器人技術的ChatGPT時刻肯定即将到來。所以我們想讓人們能夠做到這一點。所以我們創建了這個操作系統,使這些AI能夠在基于物理的世界中進行實踐,我們稱之爲Omniverse。
Omniverse不是工具。Omniverse甚至不是引擎。Omniverse是API,技術API,它增強了其他人的工具。所以我對與達索的公告感到非常興奮。他們正在使用——他們正在連接到Omniverse API以增強3DEXCITE。微軟已經将其連接到Power BI。
羅克韋爾Rockwell已經将其連接到他們的工具,用于工業自動化。西門子已經連接到他們的,所以這是一堆基于物理的API,它産生了圖像或關節動作,并連接了一堆不同的環境。所以這些API旨在增強第三方工具。我非常高興地看到它在工業自動化中的采用。所以這就是我們做的五件事。
我會很快做下一個。對不起,我花了太長時間,但讓我很快做下一個。看那個。好的。所以這個圖表,不要盯着它看太久,但它基本上傳達了幾件事。上面的是開發者。NVIDIA是市場制造者,而不是份額奪取者。我們所做的一切在開始做的時候都不存在。你隻是上下移動。事實上,甚至在我們開始研究3D電腦遊戲時,它們也不存在。
所以我們不得不去創造必要的算法。實時光線追蹤在我們創造它之前并不存在。所以我們不得不去培養和與開發者合作,将我們剛剛創造的技術整合到應用程序中,以便應用程序能夠從中受益。
我隻是解釋了對于Omniverse的情況。我們發明了Omniverse。我們沒有從任何人那裏拿走任何東西,它不存在。爲了使它有用,我們現在必須有開發者,達索,Ansys,Cadence等。這有道理嗎?羅克韋爾,西門子。
我們需要開發者利用我們的API,我們的技術。有時它們以SDK的形式出現。在Omniverse的情況下,我非常自豪它是以雲API的形式出現的,因爲現在它可以很容易地使用,你可以在兩種方式中使用它,但API要容易得多,好嗎。我們在Azure雲中托管Omniverse。而且每當我們将其連接到客戶時,我們就爲Azure創造了機會。
所以Azure是基礎,他們的系統提供商。回到過去,系統提供商曾經是OEM,他們繼續是,但系統提供商在底部,開發者在頂部。我們在中間發明技術,恰好成爲芯片領域的核心。
它是軟件優先的。而且沒有開發者,就沒有芯片的需求。所以NVIDIA首先是一家算法公司,我們創建這些SDK。他們稱之爲DSL,特定領域的庫。SQL是一個特定領域的庫。你可能聽說過Hadoop是一個特定領域的存儲計算庫。
NVIDIA的cuDNN可能是繼SQL之後世界上最成功的特定領域庫。cuDNN是一個特定領域的庫。它是深度神經網絡的計算引擎庫。沒有DNN,他們都不會能夠使用CUDA。所以DNN被發明了。
實時光線追蹤光學,這導緻了RTX,有道理。我們有數百個特定領域的庫。Omniverse是一個特定領域的庫。這些特定領域的庫與開發者在軟件方面整合,當應用程序被創建并且有需求時,就會爲下面的基礎創造機會。我們是市場制造者,而不是份額奪取者。這有道理嗎?
所以教訓是,沒有軟件就無法創造市場。這一直是這樣。這從未改變。你可以建造芯片使軟件運行得更好,但你不能沒有軟件創造新市場。使NVIDIA獨特的是,我相信我們是唯一能夠創造自己市場的芯片公司,注意我們正在創造的所有市場。
這就是爲什麽我們總是談論未來。這些是我們正在努力的事情。我們真的——沒有什麽比與整個行業合作創造計算機輔助藥物設計行業更讓我高興的了,不是藥物發現行業,而是藥物設計行業。
我們必須像我們設計芯片一樣設計藥物,而不是像尋找松露一樣尋找藥物。有些日子是好的,有些日子是不太好的。
好的,好吧。所以我們有開發者在頂部。我們的基礎在底部。開發者想要的東西非常簡單。他們想确保你的技術性能很好,但他們必須解決他們無法以其他方式解決的問題。但對開發者來說最重要的是安裝基礎。而且自從時間開始以來就沒有改變,現在也沒有改變。人工智能,如果你開發了人工智能軟件,你想部署它,讓人們可以使用它,你需要安裝基礎。
第二,系統公司,基礎公司他們想要殺手級應用。這就是——這就是殺手級應用這個詞存在的原因,因爲哪裏有殺手級應用,哪裏就有客戶需求,哪裏有客戶需求,你就可以賣硬件。
所以,事實證明這個循環非常難以啓動。你真的能建造多少加速計算平台?你能爲生成性AI建造一個加速計算平台,以及工業機器人,以及量子,以及6G,以及天氣預測嗎?
而且你可以爲所有這些不同的版本建造,因爲有些版本擅長流體。有些擅長粒子。有些擅長生物學。有些擅長機器人。有些擅長AI。有些擅長SQL。答案是不。你需要一個足夠通用的加速計算平台。就像上一個計算平台因爲運行一切而非常成功一樣。
NVIDIA花了我們很長時間,但我們基本上運行了一切。如果你的軟件被加速了,我非常确定,它運行在NVIDIA上。這有道理嗎?好的。如果你有加速的軟件,我非常非常确定它運行在NVIDIA上。而且原因是因爲它可能是在NVIDIA上首先運行的。
好的,好吧。所以這是NVIDIA的架構。每當我做主題演講時,我傾向于觸及它們中的所有部分,有些新的東西,我們在這中間做了,比如Blackwell。我談到了有很多好東西,你必須去看看我們的tox,看起來像1000個tox。6G研究,6G将如何發生?當然是AI。你爲什麽要使用AI?機器人MIMO。
爲什麽MIMO如此預裝,爲什麽算法出現在現場之前。我們應該有特定于站點的MIMO,就像機器人MIMO一樣。所以,強化學習和與環境的交易,所以6G當然将是軟件定義的,當然是AI。
量子計算,當然我們應該成爲量子計算行業的偉大合作夥伴。你怎麽能駕駛量子計算機?擁有世界上最快的計算機坐在它旁邊。
你将如何刺激量子計算機,模拟量子計算機?量子計算機的編程模型是什麽?你不能隻編程一個量子計算機。你需要有經典的計算坐在它旁邊。所以量子将是某種量子加速器。
所以,誰應該去做那件事,我們已經做了,所以我們與整個行業合作。所以全面來看,一些非常、非常好的東西。我希望我能有一個完整的主題演講,隻讨論所有這些事情。但我們涵蓋了整個範圍。好的,所以那是昨天的事情。謝謝你們。
問答環節
A - Colette Kress:好的。我們讓他們四處走動,看看我們是否能抓住你的問題。
Ben Reitzes:嗨,Jensen。我是Melius Research的Ben Reitzes。很高興見到你。
黃仁勳:謝謝你,Ben。
Ben Reitzes:這對我們所有人來說都是一個巨大的刺激。所以我想更多地了解一下你對軟件的願景。你正在創造行業。你有全方位的方法。很明顯,你的軟件使你的芯片運行得更好。你認爲從長遠來看,你的軟件業務能否像你的芯片業務一樣大?如果我們展望10年,你是——你不是芯片公司,但你認爲,鑒于你在軟件和你所構建的行業的勢頭,你會是什麽樣子?你似乎會變得更多一些。
黃仁勳:是的。謝謝你,Ben。我感謝你。首先,我感謝你們所有人的到來。這是一個非常、非常不同類型的活動,你知道。大多數演講都是關于軟件的,都是計算機科學家,他們在談論算法。
NVIDIA的軟件棧大約有兩件事。它要麽是幫助計算機運行得更好的算法,TensorRT-LLM。這是一個非常複雜的算法,它以大多數編譯器從未需要的方式探索計算空間。TensorRT-LLM甚至不能在沒有超級計算機的情況下構建。很可能未來的TensorRT,未來的TensorRT-LLM,實際上必須一直在超級計算機上運行,以便爲每個人的AI優化。而這個優化問題非常、非常複雜。所以這就是我們創建的軟件的一個例子,優化、運行時。第二種我們創建的軟件是當有一個算法,其中原則算法是衆所周知的。
例如,Navier-Stokes,然而——薛定谔方程,然而,也許在超級計算或加速計算或實時光線追蹤中表達它是一個很好的例子。實時光線追蹤從未被發現。這有道理嗎?好的。所以,正如你所知,Navier-Stokes是一個非常複雜的算法。能夠以實時方式重構它也是非常複雜的,需要大量的發明,我們公司的一些計算機科學家因爲他們在如此大規模上解決了這些問題而獲得了奧斯卡獎。他們的發明,他們的算法,他們的數據結構本身就是計算機科學。好的。所以我們将緻力于這兩層。
然後當你把它——在舊時代,這對娛樂、媒體娛樂、科學等等都是有用的。但今天,因爲AI已經将這項技術帶到了應用的前沿,模拟分子曾經是你在大學裏做的事情。現在你可以在工作中做到這一點。所以當我們現在爲企業提供所有這些算法時,它就變成了企業軟件。企業軟件就像你從未見過的那樣。我們稱之爲——我們将它們放在NIMs中,這些包。我們将大量生産它們,并将支持它們、維護它們、保持它們的性能,以支持客戶使用它們。所以我認爲這将是一個非常大的業務,這是工業革命的一部分。
如果你看到了,今天的IT行業是SAP和偉大的公司,ServiceNow和Adobe和Autodesk和Canes,那是今天的IT行業。那不是我們要玩的地方。我們要玩的是上面的一層。上面的那一層是一堆AI和這些算法,真的,我們是正确的公司去建造它們。所以我們會與他們一起建造一些,我們會自己建造一些,但我們會将它們打包并以企業規模部署它們。好的。所以我很感激你提出這個問題。當她走過去的時候。繼續。是的。
Vivek Arya:嗨,Vivek Arya來自美國銀行證券。謝謝你,Jensen。謝謝你,Colette的演講。所以Jensen,我的問題可能是更接近中短期的,那就是你的可尋址市場規模,因爲你的收入增長得非常快。當我看到你們的大型客戶時,他們就像30%、40%、50%,有時更多,但當我看到你們從生成性AI中産生多少收入時,就像不到他們銷售額的10%。所以這種差距可以持續多久?更重要的是,我們是否已經到了他們可以花多少錢在你們的産品上的中點?所以我認爲你過去給了我們一個萬億美元的市場,變成了2萬億美元。如果你能教育我們一下市場有多大?以及我們在這個采用曲線上的位置,基于它可以被——基于它可以在近期到中期内被貨币化多少?
黃仁勳:好的。我先給你一個超級濃縮的版本,然後我會回來解決這個問題。
好的。所以市場有多大?我們能有多大的問題?這與市場規模和我們賣的東西有關。記住,我們賣的是數據中心。我隻是把它分解了。但最終,我賣的是數據中心。注意你在主題演講中看到的最後一張圖片,它提醒我們我們實際上賣什麽。
我們展示了一堆芯片。但記住,我們并不真的賣那些。芯片自己不會工作。你需要将它們構建成我們的系統。最重要的是,系統軟件和生态系統棧非常複雜。所以NVIDIA爲AI構建了整個數據中心。我們隻是把它分解成那部分。
所以這就是我們賣的東西。什麽是機會?今天世界上的數據中心規模是1萬億美元。對。它是1萬億美元的安裝基礎,每年2500億美元。我們按部分賣整個數據中心,所以我們每年2500億美元的百分比可能比賣芯片的人高得多,無論是GPU芯片還是CPU芯片還是網絡芯片。
這個機會以前沒有變。但NVIDIA制造的是一個數據中心規模的加速計算平台。好的。所以我們每年2500億美元的百分比可能會比過去高得多。現在,第二件事。它有多可持續?有兩個答案。你買NVIDIA的一個原因是AI。如果你隻建造TPUs,如果你的GPU隻用于一個應用程序,那麽你必須依靠100%的AI。
今天你可以從AI中貨币化多少?Token生成回報。然而,如果你的價值主張是AI 代币生成,但那是AI訓練模型,而且非常重要的是,減少計算成本,加速計算,可持續計算,節能計算,那是NVIDIA在核心業務中所做的事情。這隻是我們做得如此之好,以至于創造了生成性AI。好的。現在人們忘記了,這有點像我們的第一個應用程序是計算機圖形。我們的第一個應用程序是遊戲。
我們做得如此之好,如此熱情,以至于人們忘記了,我們是一家加速計算公司。他們認爲,嘿,你是一家遊戲公司,一代年輕人長大了。一旦他們學會了,他們使用RIVA 128,他們帶着GeForce上了大學,然後當他們最終成爲成年人時,他們認爲你是一家遊戲公司。所以——我們隻是做——我們做加速計算如此之好。我們做AI如此之好,人們認爲這就是我們所做的一切。但加速計算是一萬億美元——每年2500億美元應該用于加速計算,不管有沒有AI,隻是爲了可持續計算,隻是爲了處理SQL,正如你們所知,SQL是世界上最大的計算消耗之一。
好的。所以我會說每年2500億美元應該用于加速計算,無論如何。然後在那之上是生成性AI。我認爲生成性AI會有多可持續?你知道我對此的看法。我認爲我們将生成單詞、圖像、視頻、蛋白質、化學品、動力學行動、操縱。我們将生成預測。我們将生成賬單。我們将生成材料清單,我們将生成清單。列表還在繼續。
Stacy Rasgon:嗨,Jensen,Colette。謝謝。我是伯恩斯坦研究的Stacy Rasgon。我想詢問關于CPU和GPU之間的相互作用。你昨天展示的大多數基準測試,如果不是全部的話,都是關于Grace Blackwell系統的,它有兩GPU和一CPU,相對于Grace Hopper,每GPU的CPU比例翻了一倍。你沒有太多談論相對于獨立GPU的基準測試。這是一個轉變嗎?你們是不是在未來的AI服務器中尋找更多的CPU内容?然後當我考慮到你們正在開發的ARM CPU和x86時,似乎你們在未來對x86方面的重視減少了一點。
黃仁勳:是的,Stacy。感謝你的問題。
實際上,它們兩者都沒有問題。我認爲x86和ARM都非常适合數據中心。Grace之所以這樣構建,有其原因,ARM的好處在于我們可以圍繞CPU塑造NVIDIA系統架構。這樣我們就可以在GPU和CPU之間創建這種東西,稱爲芯片到芯片,NVLink,連接GPU和CPU。我們可以使兩側一緻,這意味着,當CPU觸摸一個寄存器時,它會使GPU側的相同寄存器失效。因此,兩側可以協同工作一個變量。今天你不能在x86和外圍設備之間做到這一點,所以我們解決了一些我們無法解決的問題。
因此,Grace Hopper非常适合CAE應用程序,這是多物理的。有些在CPU上運行,有些在GPU上運行。它非常适合CPU和GPU的不同組合。所以我們可以爲每個GPU或兩個GPU關聯非常大的内存。因此例如,數據處理在Grace Hopper上非常出色。好的。所以它之所以更難解決,并不是因爲CPU本身,而是因爲我們無法采用系統。
其次,爲什麽我展示了一張圖表,我展示了Hopper與Blackwell在x86系統B100、B200上的對比,還有GB200,即Grace Blackwell。在那種情況下,Blackwell的好處并不是因爲CPU更好。而是因爲在使用Grace Blackwell的情況下,我們能夠創建一個更大的NVLink域。這個更大的NVLink域對于下一代AI來說真的非常重要。未來三到五年,就我們目前所能看到的。
如果你真的想要一個好的推理性能,你将需要NVLink。那是我試圖傳達的信息。我們将更多地談論這個問題。現在非常清楚,這些大型語言模型,它們永遠不會适合一個GPU。好的。無論如何,這不是重點。而且爲了讓你有足夠的響應性和高吞吐量以保持成本下降,你需要比你甚至适合的GPU多得多。
爲了讓你有很多GPU在沒有開銷的情況下協同工作,你需要NVLink。NVLinks的好處和推理總是認爲NVLinks的好處在于訓練。NVLinks的好處和推理是驚人的。那是5倍和30倍之間的另一個6倍,都是NVLink。NVLinks在新的Tensor Core中。
所以。Grace讓我們能夠構建一個系統,就像我們需要的那樣,而且它比x86更難做到。但我們支持兩者。我們将有兩個版本的兩者。而在B100的情況下,它隻是滑入H100和H200所在的位置。所以從Hopper過渡到Blackwell的過渡是即時的。一旦它可用,你隻需滑入它,然後你可以弄清楚如何處理下一個數據中心。好的。所以我們得到了架構極限的極高性能,以及輕松過渡的好處。
Stacy Rasgon:謝謝。
Matt Ramsay:我是TD Cowen的Matt Ramsay。嗨,Jensen,Colette。謝謝你們做這個。早上好,爲了做這個。我想讓Jensen你昨天談到了一些我一直在思考的話題。其中一個是NIMs,你們昨天談到了,它似乎是爲人們更快地進入AIE并吸引客戶而設計的垂直特定加速器。我想讓你給我們一個概述,你的公司在更廣泛的企業中是如何進行的,以及人們可以利用哪些不同的途徑進入AI?第二個話題是關于電力的。我的團隊一直在花很多時間研究電力。我試圖決定我是否應該在那裏花更多時間,或者更少時間。你們昨天介紹的一些系統功率高達100千瓦甚至更多。我知道這種規模的計算沒有你們正在做的集成是無法完成的,但我們也在得到關于電力生成的宏觀層面的問題,以及在這種密度下将電力輸送到機櫃的能力。我很想聽聽你的想法,關于你的公司是如何與行業合作爲這些系統供電的。謝謝。
黃仁勳:好的。我先從第二個問題開始。
電力輸送,100千瓦對于計算機來說是很多,但100千瓦是一種商品,你們知道這一點,對吧。世界需要的不僅僅是120千瓦。所以絕對的電力量不是問題。電力的輸送不是問題。輸送電力的物理過程也不是問題。冷卻120千瓦也不是問題。我們都同意這一點。
好的。所以這一切都不是物理問題。這一切都不需要發明。這一切都需要供應鏈規劃。這有道理。所以這就是方式。供應鏈規劃有多重要?很多。我是認真的。我們非常認真地考慮這個問題。所以我們一直在考慮供應鏈規劃,你要知道,我們與Vertiv等公司有着偉大的合作夥伴關系。我想如果你看看我們與Vertiv一起寫的報紙的頭版,所以Vertiv和NVIDIA的工程師正在研究冷卻系統。好的。所以Vertiv在設計液冷和其他地方的數據中心方面非常重要。我們與西門子有着偉大的合作夥伴關系。我們與羅克韋爾、施耐德有着偉大的合作夥伴關系,所有這些原因。這與我們與TSMC、三星、SPIL、Wistron等公司的偉大合作夥伴關系完全相同。所以我們将不得不去——我們公司的供應鏈關系非常廣泛和深入。這就是爲什麽我們自己建造數據中心的原因之一。
我們已經建造了超級計算機很長時間了。這不是我們第一次。我們的第一個超級計算機是2016年的DGX-1,這讓我們有了一定的視角。我們每年都會建造一個,今年我們将建造幾個。所以我們正在建造它,這給了我們與我們正在合作的人的切實感受,誰是最棒的,我們爲什麽會這樣做,其中一個原因就是這個。NIMs。有兩種方式可以讓人們進入企業。有一種是最有影響力的方式。還有一種方式。好的。它們都很重要。其他的——我會從其他的開始。其他的是我們将創建這些NIMs。我們将把它們放在我們的網站上。我們将通過GSI和許多解決方案提供商,他們将幫助公司将這些NIMs變成應用程序。這将有一整套東西。這将有一整套東西,好的。所以我們的上市策略包括大型GSI和小型專業GSI等等。我們在那個領域有很多合作夥伴關系。
另一種方式,我認爲這真的很令人興奮。我認爲這将是大動作發生的地方,是全球數萬億美元的企業公司。他們今天創建了工具。在未來,他們将爲你提供工具和副駕駛。記住,世界上最普遍的工具是Office。現在Office的副駕駛。對于NVIDIA Synopsys、Cadence、Ansys等工具,我們希望爲所有這些工具提供副駕駛。注意,我們正在爲我們自己的工具構建副駕駛。我們稱之爲ChipNeMo。ChipNeMo非常聰明。ChipNeMo現在理解NVIDIA Lingo,NVIDIA Chip Talk,它知道如何編寫NVIDIA程序。所以當我們雇傭每一個工程師時,我們首先會告訴他們,這是ChipNeMo,然後是洗手間,然後是自助餐廳,等等。所以他們會立即變得有生産力,無論你是否吃午餐,ChipNeMo都可以做到一些事情。所以這隻是一個例子。
但我們正在我們自己的工具上到處構建Copilot。大多數公司可能做不到這一點,我們可以教GSI如何做到這一點,但在這些工具Cadence等領域,他們将構建自己的副駕駛。他們會将他們租出去,像工程師一樣雇傭他們。我認爲他們坐在一個金礦上。SAP将會這樣做。ServiceNow将會這樣做,他們非常專業。他們理解像ABAP這樣的語言,這是SAP杠杆會喜歡的語言,正如你所知,ABAP是世界上最重要的ERP系統的語言。
每家公司都在運行它。我們使用ABAP。所以現在他們必須創建一個Chat ABAP,就像我們爲Omniverse創建的ChipNeMo或ChatUSD一樣,所以西門子将會這樣做,羅克韋爾将會這樣做,等等。這有道理嗎?所以我認爲這是另一種方式,你可以進入企業,ServiceNow将會這樣做。他們正在構建大量的副駕駛。這就是他們如何在他們當前行業之上創造另一個行業的方式,這幾乎就像是一個AI勞動力行業。
是的。我對與他們所有人的合作夥伴關系感到非常興奮。我隻是非常興奮,每次我看到他們,我就——我告訴他們,你坐在一個金礦上,你坐在一個金礦上。我的意思是,我真的很爲他們感到興奮。
Tim Arcuri:Jensen,你好。我是UBS的Tim Arcuri。我也有一個關于總可尋址市場(TAM)的問題,更多的是綠地與棕地的區别,因爲到目前爲止,H100基本上都是綠地。所以人們沒有從A100中取出它們,然後用H100替換它們,B100可能是第一次,你會看到一些棕地升級,我們進去,我們取出A100,然後用B100替換它們?所以如果1萬億美元變成2萬億美元,你說的是4年的更換周期。你說的是5000億美元,但很多增長來自于升級現有安裝基礎。我想知道你能否對此發表評論。
黃仁勳:是的,這是一個很好的問題。今天,我們正在升級數據中心中最慢的計算機,這将是CPU。所以這就是應該發生的事情。然後最終你會涉及到Amperes,然後你會涉及到Hoppers。
我确實相信,在五六七八年内,你會給你們——我們将會在——挑選你在外面,我不會挑選一個。我隻是說在外部年份,你将開始看到我們自己基礎設施的更換周期,顯然,但,我不會認爲那是資本的最佳利用。Amperes非常高效,你知道的。
Brett Simpson:嗨,Jensen。我是Arete Research的Brett Simpson,感謝你舉辦這兩天的精彩活動。我的問題與推理有關。我想了解一下——你在B100的推理性能上給出了一些很好的數字,與H100相比。你對客戶關于這個新平台的擁有成本有什麽信息?你如何看待它與ASIC或其他推理平台在行業中的比較?謝謝。
黃仁勳:我認爲對于大型語言模型來說,Blackwell配備了新的變換器引擎和NVLink,将非常非常非常難以克服。原因是一樣的。問題的維度如此之大。TensorRT-LLM這個探索工具,我談到的優化編譯器。Tensor Cores下面的架構是可編程的。NVLink允許你将一堆GPU以非常低的開銷連接在一起,基本上是沒有開銷。好的。所以64個GPU在程序上就像一個GPU一樣。這是令人難以置信的。
所以當你有64個GPU沒有開銷,沒有這個NVLink開銷,如果你必須通過網絡像以太網一樣去做,那就完了。你什麽都不能做。你隻是浪費了一切。而且因爲它們都必須相互通信,這叫做all2all。每當所有都必須相互通信時,最慢的鏈接就是瓶頸,對吧。
這就像在河的一邊有一個城市,在河的另一邊有一個城市,中間有一座橋,那就是吞吐量的定義。好的。而且那座橋将是以太網。一邊是NVLink,另一邊是NVLink,中間的以太網是沒有意義的。
所以我們必須把它變成NVLink。現在我們有所有的GPU一起工作,一次生成一個Token。記住,Token不能——你不能一下子抛出一個Token,因爲Token變換器必須一次生成一個Token。所以這是一個非常複雜的并行計算問題,好的。所以我認爲Blackwell提高了很多标準。完全是山。ASIC或其他的,很難。
C.J. Muse:你好,Jensen和Colette。我是Cantor的C.J. Muse。謝謝你們的邀請。我的問題與定價策略有關。曆史上,你談到了買得越多,省得越多。但聽起來Blackwell的初始定價可能比你們提供的生産力低一些。所以,當你考慮到可能是剃刀、剃刀片和銷售軟件和整個系統時,這可能會導緻你以什麽樣的方式發展你的定價策略,以及我們應該如何考慮在這個結構内的規範化利潤率?謝謝。
黃仁勳:我們創建的定價始終從TCO開始。我感謝你的評論,C.J。我們總是從TCO開始。然而,我們也希望TCO不僅僅是我們的主要客戶群體。所以當客戶——當你隻有一個特定領域的客戶時,比如分子動力學,那麽如果它隻是一個應用程序,那麽你就基于那個應用程序設置TCO。可能是醫學成像系統。
突然之間,TCO變得非常非常高,但市場規模相當小。在每一個過去的時代,我們的市場規模都在增長,不是嗎?我們希望讓整個市場都能負擔得起Blackwell。所以在某種程度上,這是一個自我維持的問題。随着我們解決一個更大問題的TCO——更大的市場,那麽一些客戶會得到太多的價值,如果你願意的話。
但這沒關系。你簡化了業務,有一個基本的産品,你能夠支持一個非常大的市場。随着時間的推移,如果市場分化,我們總是可以分段,但我們今天離那還很遠。所以我認爲我們有機會創造一個爲許多人提供非凡價值,爲所有人提供極好價值的産品。這就是我們的目的。
Joseph Moore:嗨。我是摩根士丹利的Joe Moore。似乎你展示的最令人印象深刻的規格是關于GB200的,你剛剛描述了這是因爲擁有更大的NVLink域的功能。你能對比一下你用GB200做的事情和GH200嗎?爲什麽你認爲這次可能會是一個更大的産品?
黃仁勳:哦,很好的問題。簡單的答案是GH200,100,200,Grace Hopper,在它能夠真正開始顯著起飛之前,Grace Blackwell已經在這裏了。而Grace Hopper有一個Hopper沒有的額外負擔。
Hopper正好接在Ampere後面。A100變成了H100,它們會變成B100,等等。所以那個特定的機箱或那個特定的用例相當成熟,我們會繼續前進。軟件是爲它構建的。人們知道如何操作它等等。Grace Hopper有點不同,它解決了我們之前沒有很好地解決的一類新應用。我早些時候提到了一些。多物理問題,CPU和GPU必須緊密合作,非常大的數據集等等。Grace Hopper非常适合。所以我們開始爲它開發軟件。
我給大多數客戶的建議是,現在,隻針對Grace Blackwell,我已經給了他們這個建議。所以他們用Grace Hopper做的一切都會在架構上完全兼容。這是一件美妙的事情。而且,無論他們買了什麽,都是非常出色的,但我建議他們把所有精力都投入到Grace Blackwell中,因爲它要好得多。
未識别的分析師:Jensen,Colette,感謝你們今天讓我們來到這裏。我想問一個關于機器人的問題。似乎每次我們回到GTC,你們都會在最後偷偷放一些東西。幾年後,我們會說,哇,他已經談論這個問題有一段時間了。我聽到這周你們提到機器人可能即将迎來它的ChatGPT時刻。你能描述一下那意味着什麽,以及你開始在哪裏看到機器人的演變,就像我們的日常生活一樣?那将非常有幫助。謝謝。
黃仁勳:好的,有幾點。首先,我感謝你。兩年前我展示了Earth-2。兩年後,我們有了這個新的算法,能夠進行3公裏分辨率的區域天氣預報。你需要的超級計算機是當前用于NOAA和歐洲等地進行天氣模拟的計算機的25,000倍。3公裏的分辨率非常高,就在你頭頂上,好嗎?而且天氣預報還需要很多所謂的集合,因爲世界看起來很混亂,你需要模拟很多分布,采樣很多不同的參數,很多不同的擾動,試圖找出那個分布,那個分布的中間可能就是天氣模式。
好吧,如果它隻需要這麽多能量來做一次,他們就不會做超過一次。但是爲了預測一周後的天氣,特别是極端天氣可能會發生如此巨大的變化,你需要很多所謂的成員,很多集合成員,很多采樣。所以你基本上是在做天氣模拟10,000次,好嗎?而且因爲我們訓練了一個AI來理解物理,它必須是物理上可能的,它不能産生幻覺,所以它必須理解物理定律等等。所以兩年前我展示了它,今天我展示了它,我們将其連接到世界上最值得信賴的天氣來源,天氣公司。所以我們将幫助人們在世界各地進行區域天氣預報。
如果你是一家航運公司,你需要知道天氣條件。如果你是一家保險公司,你需要知道天氣條件。如果你在東南亞地區,你有很多飓風和台風等等,你需要一些這樣的技術。所以我們将幫助人們适應他們的地區和他們的用例。
好吧,我幾年前做了那件事。ChatGPT時刻的工作原理是這樣的。退後一步,問問自己ChatGPT發生了什麽?技術非常偉大,好嗎。它真的令人難以置信。但它發生了幾件事。首先,它從很多人類的例子中學習。我們寫了這些話,對吧?它是我們的話。所以它從我們的人類例子中學習,并且它概括了。所以它不是重複回話。所以它可以理解上下文,它可以産生區域形式。它理解了上下文的含義,它适應了自己,好嗎,或者它适應了當前的情況,上下文。然後第三件事是,它現在可以産生原始的代币。現在我要把所有東西都拿回來,用Token代替。使用我剛才使用的所有相同的話,但用代币替換單詞。如果我能弄清楚如何與這台計算機交流,這個代币是什麽意思?好嗎,如果我能将運動标記化,好嗎,就像當你做語音識别時,你将我的聲音标記化一樣。
就像當我們重建蛋白質時,我們将氨基酸标記化一樣。你可以将幾乎所有東西标記化。你可以以簡單的方式表示每個數據塊,好嗎?所以一旦你可以标記化它,那麽你就可以學習它。我們稱之爲學習它的嵌入,它的含義。所以如果我可以将運動标記化,好嗎,我可以将關節運動學标記化,我可以學習并概括它,然後生成,好嗎。我隻是做了ChatGPT時刻,這有什麽不同?計算機不知道。當然,問題空間要複雜得多,因爲它是物理事物。所以,你需要這個東西叫做對齊。什麽是ChatGPT的偉大發明,強化學習,人類反饋對齊。對嗎?所以它會嘗試一些東西。你說不,這不如這個好。它會嘗試别的東西。你說不,這不如這個好。人類反饋,強化學習,它會接受那種強化并改進自己。
所以什麽是Omniverse?好吧,如果它在機器人中,你将如何進行反饋?什麽是關于反饋的?它是物理反饋。它概括了——它生成了一個動作去拿起一個杯子,但它打翻了杯子。它需要強化學習來知道何時停止。這有道理嗎?所以那個反饋系統不是人類的。那個反饋系統是物理的。而且那個物理模拟反饋被稱爲Omniverse。所以Omniverse是強化學習,物理反饋,它将AI與物理世界聯系起來,就像強化學習人類反饋将AI與人類價值觀聯系起來一樣。你們跟着我嗎?我隻是用完全相同的概念描述了兩個完全不同的領域。所以我所做的是概括了通用AI。通過概括它,我可以在别處重新應用它。所以我們早就注意到了這一點,我們開始爲此做準備。現在你會發現Isaac Sim,它是Omniverse之上的體育館,将對任何做這些機器人系統的人非常非常成功。我們爲機器人創建了操作系統。我确定你們所有人都有公司的答案,但不幸的是,我隻知道如何用一種極客的方式來回答這個問題。
Atif Malik:嗨。我是花旗集團的Atif Malik。我有一個問題給Colette。Colette,在你的幻燈片中,你談到了Blackwell平台今年晚些時候的可用性。你能更具體一點嗎?是第四季度還是第一季度?然後在供應鏈方面,新産品的包裝,特别是B200 CoWoS-L,你是如何讓你的供應鏈爲新産品做好準備的?
Colette Kress:是的,讓我從你的第二個問題開始,談談供應鏈的準備情況。這是我們爲新産品上市準備了一年多的事情。我們感到非常榮幸能與我們的合作夥伴一起開發我們的供應鏈。我們繼續努力提高彈性和冗餘性。但是,你說得對,進入新的CoWoS領域,新的内存領域,以及我們正在構建的組件的數量和複雜性的體積。所以當産品準備好上市時,這一切都将就緒。我們的供應鏈也是我們今天早些時候談到的一部分,談論了合作夥伴将如何幫助我們進行液冷和額外的合作夥伴,他們将準備好在數據中心的完整建設方面。所以這是我們準備工作非常重要的一部分,以便于規劃和處理我們Blackwell不同配置的所有内容。
回到你的第一個問題,即我們何時将産品推向市場?今年晚些時候,你會開始看到我們的産品上市。我們許多已經與我們談過的客戶談到了設計,談到了規格,提供了他們的需求願望。這對我們開始供應鏈工作,開始我們的産量和我們将要做的事情非常有幫助。盡管如此,對于第一個真正上市的産品,可能會有一些限制,直到我們能夠滿足面前的需求。
黃仁勳:是的,那是對的。而且請記住,Hopper和Blackwell,它們被人們用于運營,人們需要今天運營。而且需求如此之大,對于Hoppers的需求。他們——我們的大多數客戶已經知道Blackwell有一段時間了,隻是讓你們知道。好的,所以他們已經知道Blackwell。他們已經知道了時間表。他們已經知道了能力。已經有一段時間了。我們盡可能快地讓人們知道,這樣他們就可以規劃他們的數據中心,并且注意到Hopper的需求并沒有改變。而且原因是他們必須爲今天服務的客戶運營業務,而不是明年。
Atif Malik:好的。
Pierre Ferragu:我來自New Street Research。所以,關于Blackwell的一個極客問題。兩個Dies之間的10太字節,你能告訴我們你是如何實現的嗎?你在技術上投入了多少工作,從制造的角度來看,多年來一直努力實現這一點?然後你如何看待你的路線圖,更長遠地看,我們會不會看到越來越多的Dies聚集在一個單一的封裝中?這是我問題的一方面,更多的是關于芯片和架構的。另一方面,你一定看到了所有這些模型,就像Sam Altman所說的,無知的面紗背後。所以你能告訴我們你看到了什麽,以及你如何看待下一代模型影響你的架構?所以數據中心AI的GPU架構的方向是什麽?
黃仁勳:是的,我先從第二個問題開始。
這是作爲所有AI研究發生的平台的一件偉大的事情。所以我們有幸看到了所有即将到來的東西。當然,所有下一代模型都旨在将當前一代系統推向其極限。而且非常大的上下文窗口。
例如,非常大的狀态空間向量,合成數據生成,基本上是模型之間的對話,強化學習,基本上是大型語言模型的AlphaGo,樹搜索。這些模型将需要學會如何推理,進行多路徑規劃。所以不是一次性的,而是有點像我們認爲我們必須通過我們的計劃來工作。而且那個規劃系統,那個推理系統,多步推理系統可能會相當抽象,路徑可能會相當長,就像下棋一樣。而且——但約束要描述起來要困難得多。所以這個研究領域的工作非常非常令人興奮。
接下來幾年,我們将看到的系統,一兩三年内,與今天相比是難以想象的,因爲我所描述的原因。人們對用于訓練這些模型的互聯網數據量有所擔憂,但這不是真的。10萬億個标記很棒,但别忘了,合成數據生成,模型之間的對話,強化學習,你将生成的數據量,将需要兩台計算機來訓練彼此。
今天我們有一台計算機在數據上進行訓練。明天它将是兩台計算機,隻是——對吧?别忘了。記住,AlphaGo。它是多個系統相互競争——下棋,好嗎,所以我們可以盡快做到這一點。所以一些真正令人興奮的開創性工作即将到來。好的,我們确定的一件事是,我們的GPU的規模,他們想要更大。我們公司的SerDes是世界級的。NVIDIA的SerDes絕對是世界上最好的。數據速率和能量消耗,我們公司的數據速率,每比特的皮焦耳,非常好。這就是我們能夠做到NVLink的原因。
記住,NVLink是因爲我們無法制造一個足夠大的芯片,所以我們把八個芯片連接在一起。這是在2016年。我們處于NVLink Gen 5。世界其他地方甚至還沒有NVLink Gen 1。NVLink Gen 5允許我們将576個芯片連接在一起。它們對我來說是在一起的。數據中心如此之大,它必須如此緊密地連接在一起嗎?不,根本不需要。所以你可以把它們分成576份。而且SerDes無論如何都非常低能量。現在我們可以制造更接近的芯片。現在,我們想要這樣做的原因是因爲它允許軟件無法告訴它們之間的區别。當你打破芯片時,算法應該是構建最大的芯片,光刻技術可以制造,然後将多個芯片組合在一起。
但是,如果可能的話,用銅制造盡可能大的NVLink,因爲你可以節省很多電力,你可以節省很多錢。你可以使其足夠可擴展。現在,你有了一塊巨大的芯片,上面有576個GPU芯片。
但這還不夠。所以我們将不得不将多個芯片連接在一起。下一步是InfiniBand。接下來是你擁有的第二好的是Ethernet,上面有一個增強的計算層,我們稱之爲Spectrum X,這樣我們就可以控制系統中的流量,這樣我們就不會有這麽長的尾巴。
記住,正如我所說的,最後一個人完成決定了計算機的速度。這不是平均吞吐量。這不像我們每個人單獨訪問超大規模,我們的平均吞吐量已經足夠了。這真的是最後一個人完成那個部分産品,完成那個張量。其他人都在等他們。我不知道這個房間裏有誰。那就是最後一個人,但我們希望那個人不會拖延,對吧。我們要确保最後一個人——我們把所有東西都推向中間。我們隻希望有一個答案。它都會在正确的時間出現。好的。
所以那就是第二好的。然後你盡可能地擴展它,這将需要光學等等。那裏有所有東西的位置。如果有人擔心光學,不要擔心。我們——我認爲光學的需求非常高。對中繼器的需求非常高。我們沒有改變任何事情。我們所做的隻是制造了更大的計算機,我們制造了更大的GPU。
我們能否再接受一個問題?這太有趣了。
Aaron Rakers:這将是買方的最後一個問題。
黃仁勳:來吧。
Aaron Rakers:哇,謝謝。Aaron Rakers在富國銀行。我真的很感激你提供了這麽多細節。我實際上要在此基礎上提出一個問題,因爲今天你談到了以太網,以及Ultra。
黃仁勳:我非常看好以太網技術。
Aaron Rakers:是的。我有興趣了解,NVLink如何通過576個GPU實現互連。這種布局架構的概念,在以太網的演變、你們的Spectrum-4産品、向800 Gbps的發展方面起着怎樣的作用?換句話說,NVLink是否會在某些情景下與以太網形成競争?
黃仁勳:不會。首先,構建大規模集成電路的算法實際上非常簡單,即盡可能構建最大的芯片。我們生産的芯片已達到極限大小。其次,盡可能地将兩個芯片連接起來。當兩個芯片的連接成爲可能時,我們就開始面臨諸如NUMA效應和局部性效應等挑戰。這時,NVLink就顯得尤爲關鍵。
擁有NVLink,我們就能以成本和功耗爲前提,構建盡可能大的鏈接網絡。我們堅持使用銅而非光纖連接多達576個GPU芯片(這相當于一個巨型芯片),是爲了有效節能和降低成本,從而實現可擴展性。然而,僅靠576個GPU是遠遠不夠的,我們需要更多的相互連接。
在這個層面上,InfiniBand是最優選擇,其次是集成了加速計算層的以太網,即Spectrum X。這樣,我們可以有效管理系統内部的數據流,避免數據滞後,優化整體計算速度。其實,每一種技術都有其應用場景,我們對光學技術的需求依然非常大,因此,不必擔心對光學技術的需求。
Will Stein:關于阿聯酋主權AI項目,能否具體說明英偉達打算如何操作?我想知道,我們該如何向老一輩,比如我91歲的母親,解釋什麽是加速計算?
Jensen Huang:對于第二問題,在解釋加速計算時,可以用"使用合适的工具完成相應的工作"來比喻。傳統的通用計算就像是用同一個螺絲刀來完成所有工作,比如從起床刷牙到睡覺都在用螺絲刀,随着時間的發展和人類智慧的積累,我們使通用工具更加多功能——螺絲刀上加了刷子、絨毛等。
CPU在順序任務處理上表現得很好,但是并不擅長并行處理。然而在大多數應用中,如Excel和大部分個人電腦應用,CPU的性能已經足夠。但對于電腦圖形學和視頻遊戲這樣的新應用領域來說,有1%的代碼決定了99%的運行時間。因此我們創造了一種擅長處理這個1%的代碼的硬件,即使它在剩下的99%的代碼上表現不佳。
這就是我們開發出針對分子動力學、醫學成像、地震處理、人工智能等領域的加速計算。加速計算可以大幅度提升處理速度,這也是爲什麽加速計算、數據處理等領域可以獲得巨大性能提升的原因。
每個國家都有自己的天然資源,那就是他們的知識産權,體現在自己的語言、曆史、文化中,這些通常保存在國家檔案館,并已數字化,但并非公布在互聯網上。我們認爲這些國家應該利用這些數據資源創建自己的主權AI。
無論是印度、瑞典、日本還是其他國家,他們都意識到這些數據資源不應該免費流向外部,然後通過支付費用以AI形式再輸入。因此,他們現在認識到應該保留自己的數據,推廣和輸出自己的AI,這是一個非常大的市場。我們關注遵守出口管制,并在某些國家可能提供些規格較低的産品,以确保能夠支持全世界各國構建和應用AI。
黃仁勳:感謝大家。我們很感激各位的支持和關注。我們正處在一個非凡、特殊的時刻,見證了技術史上的一個重大轉折點——計算方式的變革和軟件新紀元的來臨。你知道,軟件是人類創造的最重要的技術之一,你正處于一個新的工業革命的開始。未來十年對我們所有人來說都将是重要的,我們期待與您一同迎接挑戰,你絕對不想錯過。非常感謝你們。