ChatGPT 的熱度稍有平息,蟄伏已久的 Meta 就迅速放出 " 大招 ":
一次性發布四種尺寸的大語言模型LLaMA:7B、13B、33B 和 65B,用小杯、中杯、大杯和超大杯來解釋很形象了有木有(Doge)。
還聲稱,效果好過 GPT,偏向性更低,更重要的是所有尺寸均開源,甚至 13B 的 LLaMA 在單個 GPU上就能運行。
消息一出,直接在網上掀起一陣熱度,不到一天時間,相關推文的浏覽量就已經快破百萬。
同在 Meta 的 LeCun 當然也得爲這次大模型的熱度 " 添油加柴 ",LLaMA 直接給他寫了段 "AI"Rap:
We gotta think about the future, it ’ s gonna be here soon
Maybe we can even put some AI in the moon
Think about the children, think about the next generation
Let ’ s make sure we put the right systems in their foundation
(不得不說效果不錯,還雙押了,skr~)
不過話說回來,這次 Meta 的 LLaMA 模型到底如何?
一起來一探究竟。
數學編程寫求職信統統都能拿下
Meta 發布的 LLaMA 是通用大語言模型,原理就不多贅述,和以往的大語言模型一樣:
将一系列單詞作爲輸入,并預測下一個單詞以遞歸生成文本。
這次,Meta 之所以一次給出不同大小的 LLaMA 模型,論文中給出了這樣的解釋:
近來的研究表明,對于給定的計算預算,最佳性能不是由最大的模型實現的,而是由基于更多數據訓練的更小的模型實現的。
也就是說,較小的模型規模加上比較大的數據集,獲得的性能可能會比更大規模模型的要好很多。
一方面,小規模模型需要的計算能力和資源相對來說都會少很多,另一方面,它還能基于更多數據集訓練更多 token,更容易針對特定的潛在産品用例進行重新訓練和微調。
除了一把給出四種尺寸的 LLaMA,Meta 這次還直接開源了這個大語言模型。
更重要的是,Meta 爲了讓自己的工作與開源兼容,使用的都是公開的數據。
而這把開源,也不隻利好開發人員,同樣也利好 Meta。
LLaMA 模型也有着其他大語言模型的通病:會産生偏見性、有毒或者虛假的内容。開源吸引來的更多的研究可以幫助解決這個問題。
不過講了這麽多,Meta 的這個 LLaMA 模型到底能做啥?
紮克伯格直接在 Facebook 放出豪言,這是 AI 大語言模型裏的新 SOTA:
生成文本、進行對話、總結書面材料以及解決數學定理或預測蛋白質結構等它都能幹。
論文的最後也給出了一些栗子:
比如說,給出幾個數字,它直接就能找出其中的規律并續寫,還 balabala 解釋了一大通。
ChatGPT 之前擅長寫的求職信 LLaMA 也能輕松拿下。
編程、寫小說也是分分鍾的事兒:
效果超越 GPT-3
當然按照慣例,在最後 LLaMA 還是得和其他大模型做做比較(是騾子是馬,咱得拉出來遛遛)。
其中,大家比較熟悉的就是 GPT-3,直接看看它們倆之間的效果比較:
相較于有 1750 億參數的 GPT-3,最多隻有 650 億參數 LLaMA 赢麻了:它在大多數基準上都要優于 GPT-3。
比如說常識推理:
或者說一些基礎問題的解決:
又比如說閱讀理解:
甚至,研究人員還提供了一組評估模型偏見性和毒性的基準,得分越高,偏見就越大:
LLaMA 以 66.6 分險勝,偏見性略低于 GPT-3。
你對 Meta 這次的 LLaMA 怎麽看呢?如果還想了解更多可以戳文末鏈接~
論文地址:
https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/
參考鏈接:
[ 1 ] https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
[ 2 ] https://twitter.com/GuillaumeLample/status/1629151231800115202
[ 3 ] https://twitter.com/ylecun/status/1629243179068268548