由 Stability.ai 發布的開源模型 Stable Diffusion 可以說是目前最主流也是最重要的 AI 繪畫模型之一。
基于開源的 Stable Diffusion,開發者社區創作了許多有意思的插件和模型,例如可以控制圖形形狀的 Control Net 項目等,相關的開發項目超過 1000 個。
現在,這家熱衷于開源的 AI 公司又想搞一個大事情——發布一個類似 ChatGPT 的開源大語言模型。
人人都有 LLM
2023 年可以說大語言模型井噴的一年,這幾個月以來,幾乎每個星期都有一個新的大語言模型面試。大模型、小模型、文本生成的、多模态的、閉源的、開源的……現在就是大語言模型的春天,各家百花齊放。
這份熱鬧不僅屬于微軟、Google、百度、阿裏等互聯網大廠,也屬于所有與 AI 相關的科技公司。
和現有的大模型相比,Stability.ai 發布的 StableLM 大語言模型有什麽特别的呢?
根據 Stability.ai 的介紹,目前 StableLM 是一個開源且透明的模型,允許研究人員和開發者自由地檢查、使用和修改代碼。就像 Stable Diffusion 一樣,用戶們都可以自由地配置 Stable LM,打造專爲自己需求而量身定制的大語言模型。
目前 Stable LM Alpha 版本模型的參數大小爲 30 億和 70 億,未來 Stability.ai 還會提供 150 億和 650 億參數大小的模型版本。
盡管和 GPT-3 模型的 1750 億參數相比,StableLM 的模型大小要小得多,但 Stability.ai 表示 StableLM 是基于一個比 The Pile 數據集還要大 3 倍的擴展數據集訓練而成,在編碼和自然語言對話方面都有不錯的表現。
The Pile 數據集本身已經包括了大量書籍、Github 知識庫、網頁、聊天記錄等數據,還收集了醫學、物理、數學、計算機科學和哲學學科的論文,可以爲通用大語言模型、跨領域文本生成訓練提供很好的基準。
因此在實際使用時,StableLM 與 GPT-3 的差距并不像紙面參數數據的差異那樣明顯。
Stability.ai 在公告中展示了 StableLM 處理三個不同任務的實際表現,包括寫郵件、寫 Rap 歌詞(問題:寫一首深度學習網絡與符号人工智能互嗆的史詩級 Battle 歌詞。隻能說這極客味太重了)和寫代碼。
Stability.ai 還把 StableLM 托管在了 HuggingFace 的社區網站上,想搶先體驗的朋友可以到一下地址調戲它⬇️
https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat
從我們做的簡短測試來看,StableLM 的中文水平還不如郭傑瑞,更不用說和 ChatGPT 這樣的優等生對比,因此在對話時盡量使用選擇英語。
開源還是閉源之争
和包括斯坦福大學的 Alpaca 在内的衆多開源大語言模型一樣,StableLM 給了很多開發者在本地或者服務器親手定制大語言模型的機會,不用再擔心你的數據洩漏給了模型後台。
ChatGPT 爆火後,關于 AI 模型的數據隐私問題層出不窮,前不久三星還被爆出有多名員工向 ChatGPT 洩漏機密數據的事件,以緻三星的半導體部門決定自己開發内部 AI 工具,避免類似的問題再次發生。
開源模型除了有高透明度的優勢,開發者們也更容易利用開源模型開發出更具有創造力的應用。例如你可以對 StableLM 做定制化的調試,讓它變成一個不會停歇的網文作家,或者是非常熟悉公司項目的資深程序員或文案寫手,甚至可以調試成微博上的星座運程大師。
開源模型給了開發者更大的想象力空間,但與此同時,也會給作惡者更先進的手段。
對别有用心者來說,開源大語言模型可能就是做電信詐騙的神器,他們可以逼真的對話把人們騙的團團轉。
開源總是會伴随争議,這一點 Stability.ai 早有預料。此前因爲開源 Stable Diffusion,Stability.ai 已經遭到了許多涉嫌侵犯藝術家權利的法律訴訟,以及因用戶使用其工具生成色情内容而引起的争議。
Stability.ai 的 CEO Emad Mostaque 在此前的采訪中提到,大模型需要接受更多監督,而不是被大公司鎖在小黑盒裏,因此大模型的社區開放性也非常重要。Stability.ai 堅持開源,是想把技術帶給更多的人,引發人們的思考。
StableLM 是對 Stability.ai 的承諾的又一驗證,一個人人都有專屬語言模型的未來或許就此展開。
點擊「在看」
是對我們最大的鼓勵