藍鲸新聞 6 月 28 日訊(記者 朱俊熹)全球開發者和研究人員在大語言模型上又多了一項高性價比的選擇。
當地時間 6 月 27 日,谷歌終于發布了一個月前在 I/O 開發者大會上預告過的 Gemma 2 大模型。據谷歌介紹,與第一代 Gemma 模型相比,新模型擁有更優的性能,推理效率也更高。Gemma 2 包括 9B 和 27B 兩種參數大小,官方宣稱,其中 27B 模型在性能上能夠與比其大兩倍的模型相媲美,9B 模型也優于 Meta 的 Llama 3 8B 等相似尺寸的開源模型。
根據谷歌官方博客,Gemma 2 的突出優勢在于其效率上的提升。27B Gemma 2 模型支持在單個 Google Cloud TPU 主機、英偉達的 A100 80GB Tensor Core GPU 或 H100 Tensor Core GPU 上以全精度運行推理,這能夠極大地降低部署 AI 模型所需的硬件要求和成本。在成本減少的同時,谷歌稱也能确保該模型在遊戲筆記本電腦、高端台式機等各種硬件上保持較快的推理速度。
因爲無需占用大量内存或處理能力,Gemma 2 讓開發者能夠将 AI 部署到手機、個人電腦等資源受限的設備上。目前 Gemma 2 已上線 Google AI Studio,開發者還可以通過數據科學社區 Kaggle 和開源平台 Hugging Face Models 下載其模型權重。谷歌還面向研究人員推出了 Gemma 2 學術研究計劃,向他們提供 Google Cloud 額度。
對于 Gemma 系列模型,谷歌的定義是開放而非開源。谷歌并不會分享 Gemma 模型的源代碼、訓練數據等技術細節,在應用層面上,兩代模型都要求用戶在遵守許可協議的情況下才能進行商業使用和分發。
這也是谷歌爲應對 AI 競争所采取的策略:依靠 Gemini 閉源模型對抗 OpenAI,再通過 Gemma 模型牽制 Meta 的開源模型。Gemma 雖然采用了和 Gemini 同源的技術,但參數規模更爲輕量。
今年 2 月發布的第一代 Gemma 模型具有 7B 和 2B 兩種參數規模,谷歌稱其在各種服務平台上的下載次數已超過數百萬次。以這兩個小模型爲基礎,谷歌還陸續推出了多款變體模型,包括用于代碼生成的 CodeGemma、支持高效推理的 RecurrentGemma,以及在 5 月先行發布的視覺語言模型 PaliGemma,具備圖像處理和語言理解的能力。
谷歌表示,計劃在未來幾個月内推出 2.6B 參數的 Gemma 2 模型,這款新模型将會更适用于在智能手機本地運行的場景。