編譯 | 汪越
編輯 | Panken
智東西 11 月 11 日消息,據 The Information 報道,OpenAI 的 GPT 系列模型改進速度放緩,公司正調整策略以應對這一挑戰。據 OpenAI 員工透露,下一代旗艦模型 Orion 已完成約 20% 的訓練。Orion 在語言任務上表現出色,但在編碼等方面未超越 GPT-4,且運行成本偏高,提升幅度低于預期。此外,Orion 在明年年初發布時,可能不會沿用傳統的 "GPT" 命名規則,而是采用新的命名方式。
Orion 的開發暴露了高質量文本數據短缺的問題。根據 Scaling Law 理論,模型性能應随數據量和算力的增加而提升。但高質量數據的有限性已使 Orion 的訓練效果受限,令 Scaling Law 的适用性受到質疑。即便投入更多數據和算力,模型的提升速度也可能不再如前幾代那樣顯著。
爲此,OpenAI 成立了一個專門團隊,研究如何克服數據短缺的挑戰,評估 Scaling Law 還能适用多久。
一、撞上數據牆,Orion 在某些方面神似舊模型
據 OpenAI 員工透露,GPT 改進速度放緩的重要原因是高質量文本和其他數據的短缺。大語言模型(LLM)的預訓練需要大量數據來建立模型對世界和概念的理解,确保其能完成寫作或編程等任務。然而,随着現有數據源日益被充分利用,模型提升正面臨瓶頸。
▲ LLM 發布前的訓練和測試過程(圖源:The Information)
爲解決數據不足的問題,OpenAI 已組建由前預訓練負責人尼克 · 萊德(Nick Ryder)領導的團隊,緻力于探索如何克服數據短缺以及 Scaling Law 在未來的适用性。
Orion 模型的部分訓練數據源于 AI 生成的數據,即由 GPT-4 等舊模型生成的合成數據。然而,這種方式可能導緻 Orion 在某些方面呈現出舊模型的特征。
OpenAI 正通過其他方法優化 LLM 處理任務的能力,例如要求模型從大量數學或編程問題樣本中學習,并通過強化學習提升解題效率。此外,人工評估員還會對模型的編碼和問題解決表現進行評分,這種基于人類反饋的強化學習爲模型優化帶來重要支持。
今年 9 月,OpenAI 推出了推理模型 o1。與傳統模型不同,o1 在回答前 " 思考 " 時間更長,通過增加計算資源提升響應質量,顯示出 " 測試時計算 "(Test-Time Compute)的效果。雖然 o1 的運行成本是普通模型的六倍,并且該模型的客戶群較爲有限,但阿爾特曼認爲它将爲科學研究和複雜代碼生成等領域帶來突破。
▲ OpenAI"ol" 推理模型如何更好地解決數學奧林匹克競賽題(圖源:OpenAI)
二、LLM 發展平台期,投資基礎設施效果存疑
據 The Information 報道,Meta CEO 馬克 · 紮克伯格(Mark Zuckerberg)、阿爾特曼以及其他 AI 開發公司的首席執行官均公開講過,當前的技術仍未達到 Scaling Law 所設定的極限。這或許是包括 OpenAI 在内的公司,仍在投入數十億美元建設大型數據中心的原因之一,以進一步提升預訓練模型的性能。
然而,OpenAI 研究員諾姆 · 布朗(Noam Brown)在上個月的 TEDAI 會議上分享說,開發更先進的模型可能在财務上變得不可持續。布朗提出質疑:我們真的要花費數千億美元甚至更多來訓練新的模型嗎?擴展的模式終究會達到瓶頸。
OpenAI 仍在對其下一代模型 Orion 進行長時間的安全性測試。據公司員工透露,Orion 在明年年初發布時,可能不會沿用傳統的 "GPT" 命名規則,而是采用新的命名方式。OpenAI 官方對此并未做出評論。
一些已經向 AI 開發商投資了數千萬美元的投資者們,也對 LLM 是否已經開始趨于穩定表示擔憂。
本 · 霍洛維茨(Ben Horowitz)是 OpenAI 的股東之一,同時還投資了 Mistral 和 Safe Superintelligence 等競争對手。他曾談道,OpenAI 一直在增加訓練 AI 所需的 GPU 數量,但似乎并未獲得預期的智能改進。不過,他并未進一步詳細說明。霍洛維茨的同事馬克 · 安德森(Marc Andreessen)談道,許多聰明的研究人員正在努力突破技術瓶頸,嘗試提高推理能力。
企業軟件供應商 Databricks 的聯合創始人兼董事長 Ion Stoica 談道,LLM 在某些方面可能已經進入瓶頸期,但在其他方面仍在持續進步。Stoica 說,他們的平台允許應用程序開發者評估不同的 LLM,并且發現雖然 AI 在編碼和解決複雜的多步驟問題上持續改進,但在執行一些通用任務(如分析文本情緒或描述醫療症狀)時,能力似乎有所放緩。
Stoica 還說,在常識性問題上,LLM 的表現可能已經接近極限。爲了進一步提升模型的能力,公司需要更多的事實數據,而合成數據的幫助則有限。
結語:強化學習提升模型表現,持續投資保持競争力
OpenAI 正通過多方策略應對當前的技術瓶頸,尤其是在 LLM 面臨的高質量數據短缺和性能提升困境。爲了克服這些挑戰,OpenAI 不僅通過強化學習提升模型在數學和編程等特定任務中的表現,還依賴于 AI 數據平台 Scale AI 和 LLM 訓練商 Turing 等初創公司來管理大量外包承包商,以支持訓練過程。
雖然當前 AI 基礎設施的投資回報尚不明顯,且在 LLM 訓練過程中面臨巨大的财務壓力與技術挑戰,但市場競争與投資熱情尚未減退,競争者們在持續下注。比如,馬斯克旗下的大模型獨角獸 xAI 和 X 平台及英偉達合作,已建成了 10 萬片 H100 GPU 的強大集群;Meta 投入了 400 億打造類似規模的 GPU 集群,以支持 Llama 4 模型的訓練;蘋果也在積極推進與富士康的合作,提升自家設備的 AI 算力。
來源:The Information