圖片來源 @視覺中國
文|追問 NextQuestion
大型語言模型 ( Large Language Models,LLMs ) 的設計初衷是接受大量語言文本的輸入,并理解、總結、生成以及預測出新的内容。計算機科學家們原本隻是想通過擴大數據規模來提高這些模型在已知任務上的性能。然而,像 ChatGPT 這樣的大型語言模型卻在逐步超出人類的預期,可以自主完成越來越多新的、難以預測的任務。
爲了明确 LLMs 目前所具備的能力,來自谷歌研究院、斯坦福大學等研究機構的技術人員開發并選定了 204 項任務,并用這些不同的任務來辨認 LLMs 的已有能力。這其中的一項任務就是根據人類常用的表情符号來推測電影名稱。
在測試中研究人員發現:不同複雜程度的 LLMs 給出的答案并不相同——簡單 LLMs 的回答也十分簡陋:" 電影是一個男人,他也是一個男人,還是一個男人 ";中等複雜模型的回答會更接近答案一些," 答案是《表情包電影》";而最複雜的模型則一猜就中,直接猜出電影爲《海底總動員》。
猜猜看,這些表情符号描述的是什麽電影?
圖片來源:The Unpredictable Abilities Emerging From Large AI Models | Quanta Magazine
通過表情包猜測電影名稱隻是 LLMs 所具備能力的冰山一角。最近研究表明,LLMs 具有數百種 " 湧現 " 能力,能夠完成很多小模型無法完成的任務,其中有一些與文本分析關系并不大——這些任務包括進行乘法運算、生成可執行的計算機代碼以及前面提到的根據表情符号猜中電影名稱。
新的分析表明,在一些任務和模型中,存在一個關于模型複雜度的阈值,超過該阈值,模型的功能将會急劇上升;但随着複雜度的增加,一些模型的回答可能會出現偏差和不準确性。而這,和生物學中的一個現象十分相似。
大型 AI 模型中 " 湧現 " 的出現
當一些基本的小型物質聚合在一起時,往往會出現一些驚人的變化。例如,由原子構成的物質形成了生命細胞,水分子聚集形成波浪,細胞使得肌肉運動和心髒跳動,這些自組織、集體的行爲被科學家們稱之爲 " 湧現 "。湧現出現在涉及大量個體的系統中,而現在,随着 LLMs 規模的不斷擴大,人們也開始發現并記錄到了 LLMs 中出現的湧現行爲。
近幾年出現的 GPT-3 等 LLMs 具有上千億的參數,通過這些模型,用戶可以實現一些湧現行爲:比如 ChatGPT-3 可以在沒有任何特定訓練數據的情況下解決零樣本或極少樣本問題,就像前面提到的根據表情符号猜電影名稱。這類湧現行爲表明,LLMs 可以在零樣本或者少樣本學習的情況下解決以前從未或極少見過的問題,這是以往的模型所不具備的能力。
那麽,爲什麽 LLMs 會出現湧現行爲?其背後的機制是怎樣的?爲了更好地理解湧現行爲的機制,一批研究人員正在對其做追蹤記錄,以期開發出更加智能的自然語言模型。
" 湧現行爲 " 背後的可能機制
在 ChatGPT-3 問世引發大規模關注之前,Ethan Dyer 等研究人員就已在 2020 年預測 LLMs 将産生變革性影響,并呼籲研究界提供多樣化的 hard 模式任務,以探索 LLMs 能夠達到的極限。這一任務項目被稱爲 " 超越模拟遊戲基準 " ( Beyond the Imitation Game Benchmark,BIG-bench ) ,旨在測試大型 LLMs 是否能以人類的方式回答問題,并給出令人信服的答案。
Dyer 提出了一個非常重要的研究問題:如何理解 LLMs 能力上的這些轉變,即如何理解 LLMs 出現湧現?
在研究中,Dyer 發現:在某些任務中,随着複雜度的增加,模型的性能呈現可預測性地平穩提高;而在其他任務中,增加參數數量并不會帶來任何性能上的改善;但在大約 5% 的任務中,研究人員發現了一個突破——在某些阈值範圍内,模型性能會顯著躍升,這個阈值因任務和模型而異。
研究人員很快意識到模型的複雜度可能并不是唯一驅動湧現出現的因素。如果數據質量足夠高,較小模型(或在較小的數據集上進行訓練的模型)也可以在訓練中誘導産生一些意想不到的能力。此外,措辭方式同樣會影響模型在回答上的準确性。例如,當 Dyer 使用多項選擇題的方式提出根據表情符号猜電影名稱任務時,模型的準确率并不是突然躍升,而是會随着問題的複雜度逐漸增加。
除了模型複雜程度、數據質量以及訓練措辭之外,另一個被稱爲 " 思維鏈推理 " 的能力也在湧現的出現過程中扮演着重要的角色。
注:思維鏈推理能力,在 NeurIPS 會議上報告的一篇谷歌 Brain 的論文指出 [ 1 ] ,一個有自我解釋要求的模型(一種稱爲思維鏈推理的能力)能夠正确地解決一個數學應用問題,而沒有這個要求的對照模型則無法做到。
Yi Tay 近期的研究表明:思維鏈提示詞(chain-of-thought prompting)可以改變縮放曲線,從而改變湧現出現的位置。他們所做的一項研究發現,使用思維鏈提示詞可誘發 BIG-bench 研究中沒有發現的湧現行爲,這類提示詞會要求模型解釋其推理過程,這也是模型出現湧現行爲的一個因素。
除此之外,也有其他的研究者對于湧現行爲的出現給出了自己的答案。Ellie Pavlick 最近的發現表明 LLMs 出現湧現行爲至少有兩種原因:
一種是大模型确實可能像生物系統一樣自發地獲得新的能力。大模型相較于小模型,學到了新的、不同的信息,從而發生一些根本性的變化;
另一種可能性是盡管大型 LLMs 模型看似出現了湧現行爲,但是實際上可能是一種内部的、基于統計學的過程,這個過程隻有通過思維鏈條式的推理才發揮作用。LLMs 隻是學習了一些啓發式方法,而這些方法對于參數較少或數據質量較低的模型來說是無法實現的。
Pavlick 表示,隻有我們更近一步了解了 LLMs 的工作原理,才有可能确定是哪種可能性導緻了湧現行爲的出現。
湧現:瑰麗且危險
湧現行爲會導緻模型出現不可預測性,而這種不可預測性似乎會随着模型規模的擴大而增加。Deep Ganguli 指出,在研究模型的規模對湧現行爲的影響之前,我們并不知道這個模型會出現什麽能力或限制,同時我們也很難提前知道這些模型是如何被使用或部署的,這将可能帶來一些潛在的風險。
Anthropic 公司的研究團隊在去年 6 月份發布的對 LLMs 的分析中,就對 LLMs 是否存在某些類型的種族歧視或社會偏見進行了測試。這項研究的靈感源于一個與湧現行爲相關的明顯悖論:模型規模的擴大和性能的提高,可能會同時增加模型的不可預測行爲,其中就包括一些可能出現的導緻偏見或傷害的行爲。
Ganguli 表示,某些有害的行爲會在一些模型中突然出現。" 規模越大的模型可能會變得更加有偏見。" 不過當研究人員告訴模型不要依賴于刻闆印象或社會偏見時,模型能夠做到減少預測和反應中的偏見,這表明,一些湧現特性可能會減少模型自身的偏見。在最近的一篇論文中,Anthropic 團隊提出了一種新的 " 道德自我糾正 " 模式,在這種模式下,根據用戶的反饋和提示,模型會表現得更加樂于助人、誠實和無害,這将有望減少不可預測的湧現行爲對人類可能帶來的潛在的傷害。
Ganguli 指出,湧現既表現了驚人的潛力,也帶來了不可預測的風險——類似于 ChatGPT-3 這樣的大型 LLMs 模型的應用正在不斷增加,隻有更好的理解其相互作用以及湧現出現的原理,才能更好地發揮出語言模型多樣化能力。
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App