" 下面一起聊碰到 AI 的東西,放心,我來跟他是放心碰撞的,不是怼。"
2024 年 1 月 21 日,360 創始人周鴻祎罕見現身獵戶星空的大模型發布會,與獵戶星空董事長傅盛,進行了一場隔了 16 年的同台對談。
周鴻祎與傅盛同台對談。圖源:直播截圖
早年間,傅盛曾是周鴻祎在 360 的得力幹将,其帶領團隊探索的業務 360 安全衛士,在 2006 年的日均安裝量已經達到 20 萬。但由于發展理念不合,2008 年 10 月,傅盛辭職離開 360,并與雷軍合作創辦競品公司金山網絡。2011 年,360 以竊取機密資料爲由,與傅盛對簿公堂。
而讓雙方在公開場合一笑泯恩仇的,則是被周鴻祎視爲 " 這輩子經曆 PC、互聯網、移動互聯網之後第四次巨大的機會 " 的AI 大模型。
在圓桌對談中,傅盛和周鴻祎兩人對 AI 模型層和應用層的創業,有以下觀點:
AI 不是操作系統,而是更像當年人人配備的 PC,難以被兩三家企業壟斷;
大模型一定會兩級分化:一條路是在雲端越做越大,另一條路是把大模型做小;
訓千億大模型是大公司的活,資金資本消耗太大,但從應用出發去找好的場景把 AI 技術用好,是很好的機會;
ToC 産品無法用定制去解決,核心在于讓每個人感受到獨特的價值。今天的大模型做 ToC,除了套皮之外想做深不容易;
AI 對原有業務的改進更适合有一定規模的公司,AI 原生業務更适合早期的公司;公司要重視組合式的創新,把非 AI 的部分做到能讓 AI 做起來;
因爲行業套件還不成熟,真正 ToC 的 AI 原生應用還需要一兩年。
傅盛提到,未來千億參數規模的模型将半凋零,百億規模的模型必将綻放。而獵戶星空在模型的布局上,走的也是 " 把大模型做小 " 的路子。
此次獵戶星空發布的是一款 140 億參數的中型規模的大模型 Orion-14B,在一張消費級的千元顯卡上就能部署,針對的是企業的專業場景。
Orion-14B 在 NVIDIA RTX 3060 顯卡上推理速度可達 31 Token/s ( 約每秒 50 漢字 ) 。圖源:獵戶星空
與衆多國内外 200 億參數規模的模型相比,Orion-14B 在 MMLU、C-Eval、BBH 等中英主流測試集上拿下 SOTA(最佳模型),并且在 700 億參數以下基座模型中,在中文數據集的表現上總分位列榜首。
基于第三方機構 OpenCompass 獨立評測結果。圖源:獵戶星空
對于榜單上的好成績,獵戶星空也表示,Orion-14B 沒有提前刷基準測試裏面的真題,成績絕對真實。
此外,Orion-14B 單次可推理 320K 的上下文,相當于一次性看完約 50 頁的小說(45 萬字)。而在針對大模型 " 記憶力 " 的權威測試 " 大海撈針(Needle in A Haystack)" 中,Orion-14B 對 200k Token 的召回率是 100%。
圖源:獵戶星空
傅盛并不避諱承認 Orion-14B 的訓練,基于的是 8 個開源的 MoE(專家混合模型)。目前,Orion-14B 也已經在 GitHub、Hugging Face、ModelScope 等平台開源。
同時,傅盛指出,ChatGPT 隻從公開出版物上獲取數據,後果是無法深入解決企業問題。
落地到具體的企業應用場景,模型要解決的問題,一是幻覺和錯誤,二是缺乏自主性。
針對幻覺和錯誤問題,獵戶星空推出了 RAG 能力微調模型 Orion-14B-RAG。所謂的 RAG(檢索增強生成),能夠從數據源中檢索信息來複制大模型生成答案。Orion-14B-RAG 對知識邊界控制、問答對生成、幻覺控制、結構化數據提取等能力,進行了專項微調,讓其能更好配合企業整合自身知識庫,構建定制化的應用。
針對構建自主性,獵戶星空推出了輔助企業構建 AI Agent 的插件能力微調模型 Orion-14B-Plugin。該插件能夠通過 Orion-14B-RAG 更好理解用戶需求,并調用相關的工具解決問題。
附:
Orion-14B 技術報告 https://github.com/OrionStarAI/Orion/blob/master/doc/Orion14B_v3.pdf
歡迎交流