文 | 适道
2024 年餘額告急,目測一大波 # 展望 2025# 正在路上。
誰還記得大佬們對 2024 年的展望?
一年以來,不僅 GPT-5 爽約,Brockman 本人險些離席,甚至連被奉爲圭臬的 Scaling Law 最近也遇到了 " 小插曲 "。
一年以來,各類優秀的視頻生成産品陸續發布,全員處于加速狀态。但視頻生成領域并未迎來 "GPT 時刻 ",商業化探索同樣是個難題。
年初驚豔世人的 Sora,自橫空出世以來,就鴿了。。。。其背後原因,據說是卡在了審查關。一方面,要和政府深入探讨安全風險;另一方面,亟需好萊塢和藝術家們入駐合作。
另一種可能性是,太燒錢了。Factorial Funds 估算,Sora 在訓練環節對算力需求比 LLM 高出好幾倍,至少需要在 4200-10500 塊 H100 上訓練 1 個月。如果 Sora 得到大範圍應用,比如 TikTok 的 50% 視頻由 AI 生成、YouTube 的 15% 視頻由 AI 生成,推理環節則需要約 72 萬台 H100,大概燒 216 億美元。前 OpenAI CTO Mira 提到,公司希望成本做到和 Dall · E 接近後再考慮開放。
一年以來,生成式 AI 應用依然處于早期,但擋不住巨頭們的下注熱情。紅杉算了一筆賬,AI 的預期收入和基建投入之間,或存在 6000 億美元缺口。目前局勢尚且穩定,不過曆史給我們的教訓是,泡沫需要很長時間才能破裂 ......
所謂 " 預言 ",往往會出現 " 方向 " 正确;" 時間點 " 錯誤的情況。雖然你很難咬定上面哪條預言判斷有誤,但目前的 " 體感 " 并不明朗。
" 黑天鵝 " 之父塔勒布曾在《反脆弱》一書中提出了 " 脆弱推手 "(Fragilista)的概念,特指那些在系統中增加脆弱性的 " 西裝革履 " 的人物或機構。他們會用 " 預測 ",規劃未來的路線圖,對于自己不理解的事物,則傾向于當其不存在。
然而,如果這些 " 預言家 " 完全置身事内,其 " 預測 " 将影響自身利害,情況就大不相同了。比如,包括上述 Greg Brockman 等等投身 AI 事業的諸位大佬,他們或許會誇張炒作,或許會誤測時間,但不會紙上談兵。
隻不過,有些預言實在是 " 太誇張 " 了。
最近,在一段 YouTube 視頻采訪中,當被問及對 2025 年的期待時,OpenAI CEO Sam Altman 答道:AGI?我對此很興奮。我們要有 " 孩子 " 了,這是我一輩子最興奮的事情。
眼看 GPT-5 正在 " 卡殼 ",你是信 2025 實現 AGI,還是信我是秦始皇。關于 AGI 的預言都有哪些?想要實現還差幾步?《商業内幕》的一篇文章《Those bold AGI predictions are suddenly looking stretched》進行了解釋。
看山跑死馬," 明年實現 AGI" 堪比 " 明年移民火星 "
盤點大佬們對 AGI 的預測,大緻存在 "2026 年 ""2029 年 ",以及 "2034 年 " 三個時間節點。
第一梯隊:3 年内
OpenAI CEO Sam Altman:對 2025 年實現 AGI 充滿期待。
" 全美 Cutter" 馬斯克:最遲 2026 年會出現 AGI。
Anthropic 創始人 Dario Amodei :預測 2026 年實現 AGI 。
OpenAI 聯創 John Schulman:AGI 将在 2027 年實現,ASI 将在 2029 年到來。
第二梯隊:5 年内
諾獎得主、AI 教父 Geoffery Hinton:5 年内看到 AGI。
英偉達創始人兼 CEO 黃仁勳:未來 5 年,AI 能通過人類任何測試。
谷歌首席研究員 Ray Kurzweil:預測 AGI 将在 2029 年到來。
《奇點臨近》作者 Ray Kurzweil:預測 2029 年實現 AGI。
第三梯隊:10 年
諾獎得主、DeepMind 創始人 Demis Hassabis:實現 AGI 需要 10 年時間,且還需要 2 到 3 項重大創新。
軟銀 CEO 孫正義:AI 将在 10 年内比人類聰明一萬倍。(直接預言上了 ASI)
當然,還有一些 " 白日夢 " 組合。
Yann LeCun 認爲,AGI 短期内不會出現。至少不會像好萊塢科幻電影那樣突然出現。它更可能是一個漸進的過程,而不是某個時刻突然 " 開機 " 就得到 AGI。實現真正的 " 人類級别 " 的 AI 之前,我們得到的更可能是一種 " 貓級别 " 或者 " 狗級别 " 的低智能 AI。
吳恩達對宣稱 AGI 即将到來持懷疑态度:我希望能在我們有生之年看到 AGI,但我不确定。
人工智能專家 Gary Marcus 曾表示,如果我們繼續深度學習和語言模型的路線,将永遠無法實現 AGI,更遑論 ASI 了。因爲這些技術存在缺陷,相對薄弱,隻有通過更多的數據和算力,才能取得進步。
華盛頓大學計算機科學教授、《終極算法》作者 Pedro Domingos 曾斷言:ASI 隻是一個白日夢。
對于 AGI 的預測,背後關系着數萬億美元的投資。其無疑是未來科技發展的重要方向,但更重要的是,看清楚什麽是真實可行,什麽是過度炒作。
文章作者 Alistair Barr 認爲,警示信号已經出現。
最爲迫切的是 Scaling Law" 撞牆 ":OpenAI 聯創 Ilya Sutskever 明确表示,依賴于擴大模型規模的結果似乎已經停滞;OpenAI 研究員 Noam Brown 表示,在某個節點,擴展模式會失效;谷歌下一代 Gemini 性能未達預期,内部正在重新評估訓練數據的使用方式。
連 " 技術樂觀派 " 投資人都開始 " 謹言慎行 "。
a16z 創始人 Marc Andreessen 和 Ben Horowitz 懷疑 LLM 是否能保持現有的發展勁頭。
Andreessen 表示:目前看起來,AI 模型的能力似乎遇到了某種瓶頸。當然,行業中有許多聰明人正在試圖突破這個天花闆。但是,如果你僅僅從數據和性能趨勢圖來看,AI 模型性能的提升速度正在放緩,并呈現出一種 " 觸及天花闆 " 的趨勢。
Horowitz 則指出了阻礙因素:即使芯片到位了,我們可能也沒有足夠的電力支持。而有了電力後,又可能缺乏有效的冷卻手段。雖然 GPU 的算力在不斷提升,但 AI 模型的性能卻未能同步增長,這表明僅僅依靠硬件的升級并不能解決所有問題。
如果目前無法突破這個技術瓶頸,那麽短期内實現 AGI 的可能性幾乎爲零。如今,Google 未給出明确回應;Sam Altman 直接表示,沒有撞牆;Anthropic 則表示,尚未發現任何偏離 Scaling law 的迹象。
有趣的是,Alistair Barr 解釋了 Sam Altman 爲何 " 嘴硬 "。
一方面,如果 OpenAI 實現了 AGI,則有望逃離微軟的巨額 " 控制 "。OpenAI 官網寫道,一旦實現 AGI,其所産生的知識産權将不受現有與微軟的協議約束。
另一方面,Altman 的 AGI 目标完全是一種願景,就像馬斯克對火星移民和自動駕駛汽車的執着——即便一次次錯過預測時間,卻總能點燃團隊的熱情。
因此,"2025 年實現 AGI" 的宏大目标,無疑比 " 實現公司賬單自動化 " 這類相對平凡的目标更帶勁兒,盡管後者可能更具短期商業價值。
曆史表明,技術的發展充滿了不确定性,比如某些技術在經曆長期穩定的進步後,可能會突然失效。最經典的例子是 " 摩爾定律 "。該定律是半導體行業發展的一盞明燈,其 " 每兩年翻一番 " 的預言,點燃了整個科技界的創新熱情,并爲英特爾等巨頭的崛起奠定了堅實基礎。
然而,麻省理工學院計算機科學與人工智能實驗室(CSAIL)的研究表明,摩爾定律的魔力正在逐漸消退。
比如,2014 年— 2019 年,英特爾在 14 納米和 10 納米工藝的推進上遭遇了瓶頸,用 5 年才完成預期 2 年就能達成的目标。2019 年,投資者意識到摩爾定律不再适用以來,英特爾股價下跌了約 50%,至今未能完全恢複。
這些現象預示着,技術進步可能并非永恒,AGI 的到來并非迫在眉睫。
擋在 AGI 前方的四座大山
近期,Scale AI 創始人兼 CEO Alexandr Wang 的演講頗具啓發意義。
他将現代 AI 時代分爲三個主要階段:
第一個階段是研究階段(2012-2018),由第一個深度神經網絡 AlexNet 開啓,那是一個 AI 隻能告訴你 YouTube 視頻裏有沒有貓的時代。
第二個階段是規模化階段(2018-2024),由 OpenAI 的 Alec Radford 訓練的 Transformer 和 GPT-1 開啓。在這段時期,投入資源增長了一萬多倍,這帶來了性能的巨大提升。模型能力也從默默無聞的 GPT-1,發展到了博士水平的 o1 模型。
第三個階段将是創新階段,由 o1 模型開啓,直到出現超級智能爲止。我們拭目以待,看看這個階段是 6 年還是更短。這個階段的标志是,大家已經在模型上投入了 2000 億美元,而事實上大公司無法投入比這更多的資金了。我們不可能在模型上砸出 200 萬億美元。所以,從數量級來說,能繼續規模化的空間已經很有限了。砸錢工作結束,才真正需要相應的創新來配合,增強推理能力和測試時間計算能力肯定是其中之一。
Wang 認爲,在此之前,邁向 AGI 路上存在五大挑戰:數據牆、評估過拟合、Agent 不可靠、芯片和能源、國際競争等等。
挑戰一是數據牆。Epic AI 預計的時間點在 2027 年到 2030 年之間。但如果你和業内人士交流,他們會說比這更早。目前,有幾個主要的解決方案。
例如,前沿數據,各種形式的合成數據,以及更高級的數據類型,還有企業數據。這些數據類型能讓我們更有效地學習高級概念,比如推理能力、多模态、智能體數據。此外,具身智能以及其需要的現實數據将是一個重要領域。總之,絕大部分的數據仍然是私有和專有的,是被鎖起來的。
比如,GPT-4 的訓練數據集大約爲 0.5 PB。而摩根大通的專有數據集,超過了 150 PB。他們隻是衆多大企業中的一個。還有大量的數據躺在那裏,從未被用于任何主要的訓練。
挑戰二是評估。這在 AI 圈内經常引發讨論,但是圈外人不太理解其重要性。評估是我們用來衡量這些模型進步的标尺。目前,許多評估都飽和或容易過拟合,過拟合指它們有點被 " 遊戲化 " 了;飽和是指模型在所有評估中都已經表現得非常好。這意味着研究可能變得更加漫無目的。如果你看過去幾年的 MMU、數學、GPQA 等測試,模型表現似乎達到了瓶頸。但這并不是因爲模型沒有變得更好,而是因爲這些評估已經不夠難了。爲解決這個問題,我們需要建立更具挑戰性的評估。
挑戰三是 Agent。盡管每個人都在談論 Agent,但它們還沒有真正到來,而且不可靠。我們看到 AI Agent 與自駕中的 "L1 — L5" 非常相似。這個類比非常貼切:L1 是一個聊天機器人;L2 是你可以尋求各種幫助的助手。L3 是指用于工作流程特定部分的 Agent,你可以開始依賴它們;L4 可能會颠覆這一點,當 Agent 需要人類幫助時,會向你尋求幫助,更像是一種遠程操作模式。首先,讓模型在每個領域都具備推理能力,最終在幾乎每個領域都能發揮作用。其次,建設能夠實現遠程操作 Agent 的基礎設施。在未來,我們大多數人可能隻是 AI Agent 的遠程操作員。
挑戰四是芯片和能源。在未來五年内,這些數據中心所需的電力保守估計爲 100 吉瓦,也許遠遠不夠。這相當于 20 個芝加哥的能源消耗,需要投入數萬億美元的資本支出。在這裏我沒有解決方案,隻是指出這個挑戰。
結語
AGI 被視爲人類追求的 " 聖杯 "。一旦實現,世界将被徹底改變。
如果 AI 出現了 " 神 " 的能力,它或許就成了 " 神 " 的化身。
無論是在 2 年後,3 年後,抑或 5 年後,10 年後,終有一天 AGI 會實現,現在留給人類 " 轉型 " 的時間還有多少?
或許,預測未來不如預測 " 脆弱 "。
正如 Sam Altman 所言:我從不祈禱求神站在我這邊,而是希望自己站在神的一邊。