基于 Meta 模型打造的輕量版 ChatGPT,這就來啦?
Meta 宣布推出 LLaMA 才三天,業界就出現了把它打造成 ChatGPT 的開源訓練方法,号稱比 ChatGPT 訓練速度最高快 15 倍。
LLaMA 是 Meta 推出的超快超小型 GPT-3,參數量隻有後者的 10%,隻需要單張 GPU 就能運行。
把它變成 ChatGPT 的方法名叫 ChatLLaMA,基于 RLHF(基于人類反饋的強化學習)進行訓練,在網上很快掀起了一陣熱度。
所以,Meta 的開源版 ChatGPT 真的要來了?
先等等,事情倒也沒那麽簡單。
點進 ChatLLaMA 項目主頁來看,會發現它實際上集成了四個部分——
DeepSpeed、RLHF 方法、LLaMA 和基于 LangChain agent 生成的數據集。
其中,DeepSpeed是一個開源深度學習訓練優化庫,包含名叫 Zero 的現存優化技術,用于提升大模型訓練能力,具體指幫模型提升訓練速度、降低成本、提升模型可用性等。
RLHF則會采用獎勵模型來對預訓練模型進行微調。獎勵模型即先用多個模型生成問題問答,再依靠人工對問答進行排序,讓它學會打分;随後,基于獎勵學習給模型生成的回答進行打分,通過強化學習的方式增強模型能力。
LangChain是一個大語言模型應用開發庫,希望将各種大語言模型整合起來,結合其他知識來源或計算能力創建一個實用的應用程序。LangChain agent 則會像思維鏈一樣放出 GPT-3 思考的全過程,将操作記錄下來。
這時候你會發現,最關鍵的依舊是LLaMA 的模型權重。它從哪裏來?
嘿嘿,自己去找 Meta 申請吧,ChatLLaMA 并不提供。(雖然 Meta 聲稱開源 LLaMA,但依舊需要申請)
所以本質上來說,ChatLLaMA并不是一個開源 ChatGPT 項目,而隻是一種基于 LLaMA 的訓練方法,其庫内集成的幾個項目原本也都是開源的。
實際上,ChatLLaMA 也并非由 Meta 打造,而是來自一個叫做 Nebuly AI 的初創 AI 企業。
Nebuly AI 做了一個叫做 Nebullvm 的開源庫,裏面集成了一系列即插即用的優化模塊,用于提升 AI 系統性能。
例如這是 Nebullvm 目前包含的一些模塊,包括基于 DeepMind 開源的 AlphaTensor 算法打造的 OpenAlphaTensor、自動感知硬件并對其進行加速的優化模塊……
ChatLLaMA 也在這一系列模塊中,但要注意的是它的開源 license 也是不可商用的。
所以 " 國産自研 ChatGPT" 想要直接拿去用,可能還沒那麽簡單(doge)。
看完這個項目後,有網友表示,要是有人真搞到 LLaMA 的模型權重(代碼)就好了……
但也有網友指出," 比 ChatGPT 訓練方法快 15 倍 " 這種說法是一個純純的誤導:
所謂的快 15 倍隻是因爲 LLaMA 模型本身很小,甚至能在單個 GPU 上運行,但應該不是因爲這個項目所做的任何事情吧?
這位網友還推薦了一個比庫中效果更好的 RLHF 訓練方法,名叫 trlx,訓練速度要比通常的 RLHF 方法快上 3~4 倍:
你拿到 LLaMA 的代碼了嗎?覺得這個訓練方法如何?
ChatLLaMA 地址:
https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama
參考鏈接:
https://twitter.com/omarsar0/status/1630211059876339713