當地時間 4 月 18 日,AI 領域迎來重磅消息,Meta 正式發布了人們等待已久的開源大模型 Llama 3。
與此同時,Meta 首席執行官紮克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手現在已經覆蓋 Instagram、WhatsApp、Facebook 等全系應用,并單獨開啓了網站。另外還有一個圖像生成器,可根據自然語言提示詞生成圖片。
Meta 首席執行官馬克 · 紮克伯格在一段視頻中表示,該助理可以回答問題、制作動畫和生成圖像。
紮克伯格在 Facebook 上發帖:Big AI news today
Meta 首席執行官馬克 · 紮克伯格在視頻中表示:我們相信,Meta AI 現在是你可以自由使用的最智能的人工智能助手。Meta AI 内置于 WhatsApp、Instagram、Facebook 和 Messenger 應用程序的搜索框中,因此用戶可以輕松地提出可以通過新工具回答的問題。
紮克伯格表示,Meta 提供的生成式 AI 能力在免費産品中性能是最強大的。
在 Facebook、Instagram、WhatsApp 和 Messenger 上,用戶現在可以借助 Meta AI 進行搜索,無需在應用程序之間切換:
當你浏覽信息流的時候,還可以直接從帖子中向 Meta AI 詢問更多信息:
圖像生成器帶來的玩法更加有趣,Imagine 功能帶來了從文本實時創建圖像。這一功能的測試版從今天開始在美國的 WhatsApp 和 Meta AI 網絡體驗上推出。
開始打字時,你會看到一個圖像出現,每多輸入幾個字母,圖像都會發生變化:
Meta 表示,Llama 3 在多個關鍵的基準測試中性能優于業界先進同類模型,其在代碼生成等任務上實現了全面領先,能夠進行複雜的推理,可以更遵循指令,能夠可視化想法并解決很多微妙的問題。
Llama 3 的主要亮點包括:
基于超過 15T token 訓練,相當于 Llama 2 數據集的 7 倍還多;
支持 8K 長文本,改進的 tokenizer 具有 128K token 的詞彙量,可實現更好的性能;
在大量重要基準中均具有最先進性能;
新能力範疇,包括增強的推理和代碼能力;
訓練效率比 Llama 2 高 3 倍;
帶有 Llama Guard 2、Code Shield 和 CyberSec Eval 2 的新版信任和安全工具。
剛剛發布的 8B 和 70B 版本 Llama 3 模型已用于 Meta AI 助手,同時也面向開發者進行了開源,包括預訓練和微調版本。
最新發布的 8B 和 70B 參數的 Llama 3 模型可以說是 Llama 2 的重大飛躍,由于預訓練和後訓練(Post-training)的改進,本次發布的預訓練和指令微調模型是當今 8B 和 70B 參數規模中的最佳模型。與此同時,後訓練過程的改進大大降低了模型出錯率,進一步改善了一緻性,并增加了模型響應的多樣性。
Llama 3 将數據和規模提升到新的高度。Meta 表示,Llama 3 是在兩個定制的 24K GPU 集群上、基于超過 15T token 的數據上進行了訓練——相當于 Llama 2 數據集的 7 倍還多,代碼數據相當于 Llama 2 的 4 倍。從而産生了迄今爲止最強大的 Llama 模型,Llama 3 支持 8K 上下文長度,是 Llama 2 容量的兩倍。
此外,Meta 還開發了一套新的高質量人類評估數據集。該評估集包含 1800 個提示,涵蓋 12 個關鍵用例:尋求建議、頭腦風暴、分類、封閉式問答、編碼、創意寫作、提取、塑造角色、開放式問答、推理、重寫和總結。爲了防止 Llama 3 在此評估集上出現過度拟合,Meta 表示他們自己的團隊也無法訪問該數據集。下圖顯示了針對 Claude Sonnet、Mistral Medium 和 GPT-3.5 對這些類别和提示進行人工評估的彙總結果。
下圖是 Llama 3 預訓練模型和其他同等規模模型的比較,前者表現出 SOTA 水平。
爲了訓練最好的語言模型,管理大型、高質量的訓練數據集至關重要。Meta 在預訓練數據上投入了大量成本。Llama 3 使用超過 15T 的 token 進行了預訓練,這些 token 都是從公開來源收集的。總體上講,Llama 3 的訓練數據集是 Llama 2 使用的數據集的七倍多,并且包含四倍多的代碼。爲了爲即将到來的多語言用例做好準備,超過 5% 的 Llama 3 預訓練數據集由涵蓋 30 多種語言的高質量非英語數據組成。但是,Llama 3 在這些語言上的性能水平預計不會與英語相同。
爲了确保 Llama 3 接受最高質量數據的訓練,研究團隊開發了一系列數據過濾 pipeline,包括使用啓發式過濾器(filter)、NSFW 過濾器、語義重複數據删除方法和文本分類器來預測數據質量。
研究團隊發現前幾代 Llama 非常擅長識别高質量數據,因此 Meta 使用 Llama 2 爲給 Llama 3 提供支持的文本質量分類器生成訓練數據。
研究團隊還進行了廣泛的實驗,以評估出在最終預訓練數據集中不同來源數據的最佳混合方式,最終确保 Llama 3 在各種用例(包括日常問題、STEM、編碼、曆史知識等)中表現良好。
Meta 表示,最大的 Llama 3 參數超過 400B,雖然這些機型仍在訓練中,但在接下來的幾個月中也将陸續發布,新功能包括多模态、多語言對話能力、更長的上下文窗口以及更強的整體能力。
Meta 希望 Llama 3 能趕上 OpenAI 的 GPT-4。不過知情人士透露,因爲研究人員尚未開始對 Llama 3 進行微調,所以尚未決定 Llama 3 是否将是多模态模型。微調是開發人員爲現有模型提供額外數據的過程,以便它可以學習新信息或任務。較大的模型通常會提供更高質量的答複,而較小的模型往往會更快的提供答複。有消息稱,正式版的 Llama 3 将會在今年 7 月正式推出。
Meta 還宣布與 Alphabet 的谷歌建立新的合作夥伴關系,在助手的答複中包括實時搜索結果,作爲與微軟必應現有合作的補充。随着此次更新,Meta AI 助手正在擴展到美國以外的十多個市場,包括澳大利亞、加拿大、新加坡、尼日利亞和巴基斯坦。考克斯說,Meta" 仍在努力以正确的方式在歐洲做到這一點 "。歐洲的隐私規定更加嚴格,即将出台的人工智能法案也準備提出披露模型訓練數據等要求。
每日經濟新聞綜合公開資料
每日經濟新聞