圖片來源 @視覺中國
文 | 腦極體
過去幾個月,OpenAI 風頭無兩,各大科技公司争先恐後地跟進大語言模型(LLM)這一技術路線。
對比之下,OpenAI 的老對手 DeepMind,顯得有些低調和沉默。微軟靠 OpenAI 打了一場勝仗,而谷歌推出的 Bard 翻了車,和谷歌同屬 AlphaBeta 的 DeepMind 卻沒有出來力挽狂瀾的意思。
同樣是半學術、半企業科研性質的前瞻性 AI Lab,DeepMind 也瞄準了通用人工智能 AGI,但實現路徑上,卻有着和 OpenAI 不同的選擇。
這段時間我們能看到科技圈在集體 " 追風口 ",大量資源(注意力、算力、人才、政策等)都被投入到 OpenAI 引領的大語言模型熱潮中,有些高校甚至出現了 " 不做 LLM 就沒有算力用 " 的局面。" 中國沒有自己的 OpenAI" 也被認爲是創新滞後的現實證明。
有人說 OpenAI 的 AI 屬于 " 精英教育路線 ",一路砸錢供它讀到博士,一畢業就是王炸,驚豔全場,這點确實沒錯,也是非常值得很多國内 AI Lab 學習的。
追逐 OpenAI 的賽道已經十分擁擠。别忘了,DeepMind 默默燒錢、長期錨定的很多研究方向,也非常具有前沿性和想象力,2016 年的 AlphaGo、2020 年的 AlphaFold 都曾一鳴驚人。下一個 "AI 王炸 ",可能就是 DeepMind 做出來的。
大家知道有種新聞叫 " 震驚體 ",每一次出現 "AI 王炸 " 級産品,就會有大量 " 震驚體 " 出現,比如 " 阿爾法狗要取代人類 ""AlphaFold 搶了生物學家的工作 "" 有了 ChatGPT 人類還有價值嗎?"
感到 " 震驚 ",有時真的隻是因爲知道的太少、太晚,在這些 "AI 王炸 " 技術尚在成長階段,忽視了它們,等能力發展到實用程度,又開始恐慌、焦慮。
屆時,我們會不會又會陷入新一輪的追逐跟風,接着抱怨 " 中國沒有自己的 DeepMind" 呢?
所以,我們不妨來預測一下,DeepMind 正在憋的大招裏,哪些可能成爲下一個王炸,讀者們可以有個心理準備,提前對 " 震驚體 " 脫敏。
AI 要取代科學家,夠不夠震驚?
ChatGPT 走紅之後,很多白領人士都擔心自己的崗位要被取代了。而科學家可是智力水平站在金字塔頂端的人類,職業生涯肯定穩穩的吧?
AI+ 科學,正是 DeepMind 長期錨定的賽道,已經産出了很多突破性的研究成果,覆蓋了數學家、物理學家、生物學家的專業領域。
已經問世的 AlphaFold 和 AlphaFold 2 就在生物學界掀起了海嘯級的影響,徹底改變了蛋白質結構預測的傳統方法,也引發了各大高校和科研機構的複現、優化、應用。基于這一新技術,DeepMind 一夜之間改變了生物制藥行業,也因此成爲 " 數字生物學 " 這一新興領域的先驅。
目前,AI+ 生物學的潛力還沒有完全釋放出來,AI 技術在生物制藥和生命科學中的應用,還停留在少數環節中探索、案例級嘗試的階段。DeepMind 也正在與行業展開合作,比如與 Isomorphic Labs 合作,以 "AI-FIRST" 原則重構藥物發現過程,在著名的生物醫學研究中心弗朗西斯 · 克裏克研究所(Francis Crick Institute),建了一個濕實驗室,加強 AI 技術與生物實驗的結合,同時還在不斷擴大 AI for science 團隊,加快基礎生物學的研究。
或許,下一個抗癌新藥、生物計算領域的大突破,就會在 DeepMind 誕生。
(AlphaFold 揭示了蛋白質宇宙的結構)
你可能會說,生物學是一門實驗科學,有成熟的程式,被 AI 技術改變很合理。數學、物理這樣的基礎科學,突破幾乎來自天才式的直覺和靈感,有的數學家甚至是在夢中取得突破。比如阿基米德就是在洗澡時靈光一現,發現了浮力定律;拉馬努金在夢中發現了 3900 個公式…… AI 估計就不好使了吧?
數學、物理,這些涉及抽象世界和人類深層直覺的領域,DeepMind 也已經取得了突破。
幫助數學家發現他們從未發現的發現—— DeepMind 發表在《自然》雜志上的一篇論文顯示,研究人員與頂級數學家合作,爲一個幾十年來都沒有結局的數學猜想,通過機器學習(ML)找到了突破口。
使用 AI 來處理海量或無法直接推理的數據,可以大大增強數學家的洞察力,從而更快地找到證明猜想和新公式的方法,已經被 DeepMind 證明是可行的。
牛津大學數學系教授 Marcus Du Sautoy 形容 AI 技術在純數學中的應用," 就像伽利略拿起望遠鏡,能夠深入凝視數據宇宙,看到以前從未發現過的東西 "。
未來随着探索的增多,很多未被證實的數學猜想,都有可能因 AI 的加入而突破。希望屆時大家不會又以爲 AI 進化出了什麽超能力,被 "AI 取代數學家 " 之類的标題給騙了。
AI 參與核聚變的研究進程——核物理無論從學術還是社會政治經濟的角度,都是非常重要的。大家可能都聽過中國核物理學家造原子彈的艱苦故事,其中很多工作和犧牲能不能由 AI 來代勞呢?DeepMind 還真搞成了。
它們與瑞士等離子體中心,合作開發了一個 AI 系統,通過強化學習,控制系統可以很好地協調 TCV(由許多磁線圈組成),确保等離子體永遠不會接觸容器壁,這樣就可以減少核聚變的熱量損失。同時,還能将等離子體精确地雕刻成不同的形狀,方便科學家研究等離子體在不同條件下的反應,從而提高對核聚變反應堆的理解。
總之,在過去的幾年裏,DeepMind 在數學、物理、化學、生物學、量子、氣象、材料等多個科學領域,創造性地探索了大量 AI for science 的可能,帶來了全新的科學研究方法,必然會催生全新的科學發現和技術突破,下一個 "AI 王炸 " 很可能就在其中。
現實版《西部世界》夠不夠炸裂?
DeepMind 的目标也是實現通用人工智能。具體怎麽做呢?OpenAI 專心搞語言,DeepMind 就專注 " 訓狗 " ——搞強化學習。
弱人工智能,隻能在有限的環境中解決特定問題,沒有發展出人類身上那種通識智能。那種 " 通用 " 智能的機器,大概就類似于《西部世界》或者《底特律》中的機器人,能夠在複雜的環境裏執行任務。
實現 AGI,OpenAI 是用大量數據和充分訓練來促成大語言模型的 " 智能湧現 ",而 DeepMind 則選擇了 " 正向教育 " ——希望通過強化學習,給 AI 系統以 " 獎勵最大化 " 的刺激,驅使智能體自主去學習複雜的能力。因爲隻有表現出這些能力,智能體才能獲得獎勵(比如生存下去)。
聽起來,是不是跟工作犬執行主人的口令,主人根據結果來進行獎勵或懲罰是一個路子?
在一篇論文中,DeepMind 的研究人員寫道:" 獎勵足以推動智能體表現出通用智能的迹象和行爲,包括學習、感知、社會智能、語言、概括和模仿。"
上一隻震驚世界的狗是擊敗人類棋手的 " 阿爾法狗(AlphaGo)",而下一隻可能就是被 DeepMind 用強化學習訓練出來的 AI 了。
(ANYmal 機器人的運動技能是通過模仿狗 MoCap 來學習的)
比如這隻機器狗,就通過強化學習不斷試錯,從而具備了兩個重要的能力:
一是使用曆史經驗,一般來說電機控制的 AI 智能體,一開始不知道對每個關節施加什麽力,需要大量數據才能邁出步子,不然就會随機抽搐并迅速摔倒,而借助 RL 可以利用以前學到的運動技能,從而緩解 " 起步 " 時的尴尬。
二是減少特殊行爲,此前智能機器人一般會用一種很不自然、不夠人性化的方式來避障,雖然看起來很有趣,但不夠實用。DeepMind 采用強化學習訓練,偏向于讓智能體學習更多的自然行爲,可以安全高效地控制真實世界的機器人 / 機器狗,将機械控制與認知智慧相結合。
類似的強化學習實驗還有很多,比如讓智能體在網絡遊戲中展開随機互動,讓智能體在模拟的三維世界裏搭積木、打掃房間……基本邏輯都是基于人類反饋的獎勵模型。
ChatGPT 隻能解決語言問題,《西部世界》裏的人機融合新物種,更靈活的通用家政機器人,可能還真得靠 DeepMind 的強化學習路線來實現。
像人腦一樣思考的 AI,夠不夠有趣?
DeepMind 雖然沒有跟風推出類 ChatGPT 的大語言模型,但并不代表它對這個領域毫無建樹,隻不過二者關注的技術方向不太一樣罷了。
随着使用者的增多,大家可能都發現了類 ChatGPT 模型的一些限制,比如非常注重數據和語料。
深度學習靠規模數據、龐大算力、充分訓練而 " 大力出奇迹 " 的暴力美學,在大模型時代發揮到了極緻。
這帶來了一系列問題,比如中文語料不足,訓出來的大模型效果不好,有的中文 LLM 會用英文語料進行訓練,再将答案翻譯回中文,這種做法當然是符合業界常規的,但問題在于很多價值觀、常識性的東西,是沒有辦法對齊和翻譯的。
而且 " 暴力計算出奇迹 " 的大煉模型,打造的語言模型是不可解釋的黑盒,金融、政務、工業等行業是不敢用的,無法支撐可靠的決策。
不知道 OpenAI 和國内廠商打算怎麽解決 " 暴力計算 " 的弊病,反正 DeepMind 倒是一直在琢磨不同的路線——不搞暴力美學,大搞神經科學。
DeepMind 認爲大腦才是機器智能模仿的對象,希望通過對腦科學、神經運動學、元學習等 " 人類本位 " 的研究,來提升深度學習模型的魯棒性、可解釋性、可靠性等,讓 AI 達到人類水平的理解能力。
比如重新認識大腦的工作機制,借鑒多巴胺通過調節神經元之間突觸連接的強度,提出了一種基于獎勵的強化學習理論;在 3D 遊戲世界中創建了模拟心理學實驗室 Psychlab,能夠實施經典的心理實驗,顯著改進了智能體 UNREAL 的性能;發現在人工神經網絡傾向于避開精确設計的代碼,傾向于對成本函數進行暴力優化(不追求獎勵最大化,而是追求成本最小化,不做錯就沒有損失),而人腦的機制卻往往會專注在任務實現和獎勵上,從這個角度去優化深度神經網絡的結構。
2023 年發表的一篇新論文中,DeepMind 則針對大腦中的回放(replay)機制,提出這是一種組合計算的形式,可以衍生出新的知識,在神經網絡中整合回放機制,有望讓 AI 用極少的數據學到新東西,提高認知智能,更接近 " 智能湧現 "。
大腦的智慧讓人類爬上了萬物之靈的寶座,AI 不靠人工而靠智能,爲什麽不可能呢?
當初 OpenAI 要走 NLP 這條 " 冷門 " 的路,很多人也覺得不可能,直到産品雖不成熟、但能力十分驚豔的 ChatGPT 出現,人們才開始紛紛誇贊 OpenAI 的長期主義。這些年 DeepMind 默默搞的研究,可能就是下一個 " 王炸 "。
我們都希望中國 AI 也能誕生影響世界的元創新,其實 AI 領域并沒有那麽多獨門秘技,很多靈感或技術路線都是公開的,但我們爲什麽總是聽過就算、見過就忘呢?
除了靈光一現的 idea, OpenAI 和 DeepMind 不斷投入的耐心,強大的工程能力,前沿研究與商業化的平衡,也是值得學習和借鑒的。
不能總是熱淚盈眶,總是不長記性,直到下一個《震驚!XXX 的 XXX 又颠覆世界了》……
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App