本文來源:時代周報 作者:申謹睿
圖源:Unsplash
繼今年 2 月發布開源模型 MiniCPM 之後,短短 70 多天,清華系 AI 公司 " 面壁智能 " 又在 4 月 11 日下午推出了 MiniCPM 2 系列端側模型。
新品主要包括:MiniCPM-V 2.0 多模态模型,20 億參數的 MiniCPM-2B-128k 長文本模型,MiniCPM-MoE-8x2B MoE(混合專家)模型,以及 12 億參數規模的 MiniCPM-1.2B 模型——比上一代推理速度提升 38%,成本下降 60%。
同日,面壁智能向時代周報透露,公司已完成新一輪數億元融資,由春華創投、華爲哈勃領投,北京市人工智能産業投資基金等跟投,知乎作爲戰略股東持續跟投支持。本輪融資将用于人才引入,大模型底層算力與數據基礎構建,和大模型落地三個方向。光源資本擔任獨家财務顧問。
面壁智能成立于 2022 年 8 月,專注大模型技術創新與應用轉化。其創始團隊主要來自于清華大學自然語言處理實驗室(THUNLP),公司 CEO 李大海兼任知乎 CTO(首席技術官);另一位公司聯合創始人劉知遠,則是清華大學計算機系副教授、博士生導師,研究方向爲計算機自然語言處理。
據李大海介紹,面壁智能科研團隊有 100 多人,清華、北大畢業的員工數量占比高達 80%,平均年齡爲 28 歲。其中工程團隊還有來自阿裏、字節、百度等國内外知名公司的 AI 人才。
将 " 高效 " 視作産品關鍵詞
面壁智能 CEO 李大海向時代周報表示:" 高效大模型是通向 AGI 的更現實的路徑。" 他稱,面壁智能将打造更高效的 Scaling Law 增長曲線,實現同等參數性能更優、同等性能參數更小效果。
Scaling Law 增長曲線即模型的最終性能主要與訓練計算量、模型參數量和數據大小三者相關,而與模型的具體結構(層數、深度、寬度)基本無關。研發人員可以通過它在固定資源預算中,如額定的 GPU 數量、訓練數據量或是訓練時長下,匹配模型的最佳大小,且無需經曆昂貴的試錯。
面壁智能的思路就是,在遵循 scaling law 的情況下,對模型的細節進行更好的優化,使其在同等成本下達到更好的效果。
面壁智能團隊曾于 2020 年 12 月發布國内首個中文大模型 CPM-1。截至目前,公司正規劃構建 Al Agent 智能體協作平台,推出基于群體智能的 " 大模型 +Agent" 應用—— ChatDev 智能軟件開發平台。同時,To C 消費端,面壁智能的基座模型産品 " 面壁露卡 Luca" 已獲審批并對外開放。
過去一年,瞄準 AGI 這一方向,面壁智能将 " 高效 " 視作産品關鍵詞,推進大模型技術發展和市場落地。
在 2024 年 2 月 1 日的發布會上,面壁智能對标 Mistral 發布了訓練數據規模近 1T、參數規模僅 2B 的模型——聚焦于适配端側硬件的端側大模型 MiniCPM-2B。目前,MiniCPM-2B 在比 GPU 計算吞吐量低的 CPU 上可實現運行,有效降低了推理成本。同時,即便将大小壓縮 75%,MiniCPM 的性能也能做到基本無損耗。
面壁智能向時代周報透露,此次發布的國内 MiniCPM 2 四款模型,整體對标的是谷歌 Gemma-7B、OpenAI GPT-4V、Mistral-7B、Llama2 等國外開源模型。MiniCPM 2 模型在同等性能參數更小、同等參數性能更強,超越 Mistral-7B、谷歌 Gemma、Llama2-13B、 ChatGLM3-6B 等,并且 170 萬 tokens 的推理成本僅需 1 元。
從商業化層面來看,面壁當下更側重企業端的産品驗證。目前,面壁已與招商銀行、數科網維、知乎等合作夥伴,将大模型與 Agent 技術部署落地于金融、教育、政務、智能終端等應用場景。
李大海稱,盡管很難預測未來行業發展,但随着時間推移,公司會出現 " 分層 ",大模型應用可能會百花齊放,然而通用千億大模型不會太多,可能隻有極少數的幾家公司最終能突出重圍。
硬件廠商争奪端側大模型
誕生不滿一年," 端側大模型 " 概念已被一衆硬件廠商視作競争的新籌碼。
今年 2 月,OPPO 創始人兼 CEO 陳明永在内部信中開宗明義地指出:未來五年,Al 對手機行業的影響完全可以比肩當年智能手機。從行業發展階段來看,AI 手機也将成爲繼功能機、智能手機之後,手機行業的第三階段。
于過去十餘年都未享受到技術創新紅利的 PC 廠商而言,AI 被放在了更加重要的位置。
聯想、華爲、榮耀、蘋果、微軟等紛紛布局 AI PC 生态,紮堆亮相國際消費電子盛會 CES 2024。此外,芯片廠商也聞風而動,高通、聯發科、英特爾和 AMD 相繼發布了能夠支持在手機端運行百億參數大模型的手機芯片。
" 從消費者角度來看,端側大模型避開了雲端、網絡速度的限制,可獨當一面地提升手機、電腦的運行體驗,并且能保證用戶數據安全可控。" 科技分析師李影向時代周報稱。
從國内大模型企業發展角度來看,李影認爲,通用大模型往往需要暴力地消耗算力,端側大模型的出現或将消解國外 " 算力制裁 " 的風險,不失爲國内企業實現彎道超車的機會點。
但一個無法避開的挑戰是,手機與 PC 若支持本地化 AI 模型,意味着其需要更快的傳輸速度、更大的儲存容量和帶寬。因此,解決 " 算 " 和 " 存 " 的壓力,将模型做 " 小 " 做 " 高效 ",成爲 " 百模大戰 " 卷向千億參數後的又一難題。
李影表示,把大模型落在端側并進行後續市場推廣,需要考慮到大模型的形态是不是足夠小,成本是不是足夠低,性能是不是足夠強。
她稱:" 目前的通用大模型很大一部分無法打破這些掣肘。130 億參數規模的 Llama 2 跑在手機端非常吃力,但 10 億參數量 Stable Diffusion 可以在搭載骁龍芯片的手機上正常運行。"
" 當 1.2B 規模的模型應用于手機和 PC 端,意味着大模型離用戶更近,從而能出現更廣泛的落地場景。" 李影告訴時代周報。