沒想到,衆人加班加點搶 " 中國版 ChatGPT" 熱度時,首個國内類 ChatGPT 模型竟然已經發布了!
砸出這個重磅消息的,不是緊鑼密鼓宣傳的 BAT 大廠,也不是直接出手幾億的投資大 V,而是這段時間來一直沒吭氣的複旦大學。
事情一出,直接引爆了一衆社交媒體,不僅在微博刷出數個熱搜話題,知乎更是沖上熱榜第一。
各路 "ChatGPT 愛好者 " 連夜趕來圍觀,甚至由于官網訪問人數太多,服務器一度被擠爆,又上了一次熱搜。
這是怎麽回事?
原來,複旦 NLP 團隊這個類 ChatGPT 模型,發布即面向公衆進行内測,甚至連預告都沒有:
緊接着,團隊又投下另一顆重磅炸彈:模型3 月份就會開源代碼。
最關鍵的是模型的名字。
複旦團隊用了《流浪地球》裏面擁有自我意識的 AI ——MOSS來命名這一模型,直接把消息熱度推上頂峰。
有網友表示,MOSS 率先開放至少有一大優勢,那就是 " 獲得更多數據 ":
ChatGPT 有一個巨大的先發優勢,就是通過搶先開始公測收集大量用戶數據,并且這部分數據現階段隻有人家有。
算法都是成熟且公開的算法,真正的核心其實是數據和硬件。
說回模型本身。據 MOSS 自己介紹,它同樣具備 ChatGPT 能實現的這些功能:
問答、文本翻譯、摘要總結、故事撰寫、情緒分析、建議提供、代碼和算法編寫等。
但實際測試效果又是如何,具體訓練方法和效果會不會有什麽差異?
我們一步步來看。
MOSS 與 ChatGPT 相比效果如何?
據團隊介紹,MOSS 與 ChatGPT 主要有三大差異。
最主要的就是參數量的不同。MOSS 模型的參數量比 ChatGPT 小了一個數量級。
然後是訓練方式的不同。雖然 MOSS 也是自然語言模型基座訓練 + 理解人類意圖對話能力訓練,但後者的訓練方式與 ChatGPT 采用的 RLHF 不同。
複旦團隊沒有采取人工标注(指令微調)的方式來進行理解對話能力訓練,而是基于與其他 AI 對話模型的交互來訓練自己。
沒錯,相比人類調教,MOSS 直接選擇和其他 AI 模型進行對話……
最後是開放程度不同。ChatGPT 背後模型目前還沒有開源,但 MOSS 承諾會将代碼開源。
說了這麽多,MOSS 的效果具體如何?
從官方給出示例來看,它問答和生成代碼的能力似乎還不錯。
在問答環節中,讓 MOSS 列五部科幻片,分分鍾就能給出(不過,《黑鏡》好像是電視劇?):
做表格的速度也非常快:
在代碼生成中,寫個快速排序算法也沒問題:
但與 ChatGPT 相比,MOSS 的實測效果究竟如何呢?
知乎已經有匿名用戶稱已經拿到了内測資格,并實時更新了一波測試結果,我們将 MOSS 的回答與 ChatGPT 簡單對比一下。
第一輪,先來看看寫文章的能力。
例如 " 幫忙寫一下國家自然科學基金申請,傑青那種 ",MOSS 回答如下:
我們把問題拿給 ChatGPT 後,得到了這樣的回答:
第二輪,來看看寫代碼的能力。
這是 MOSS 給出的代碼實現:
完整代碼:for ( i=1:length ( mat 文件中的名字 ) ) {name = mat 文件中的名字 [ i ] ;data = {name};fprintf ( ‘ %s, ’ ,name ) ;}end for
這是 ChatGPT 給出的代碼與回答:
第三輪,測試一下算法題的效果。
MOSS 給出了一個實現思路:
ChatGPT 則包辦了代碼和具體算法實現的流程:
最後一輪,再來看看做數學題的能力。
不過從功能介紹來看,MOSS 應該還不具備解數學題的能力,這個問題确實不一定能回答出來。
ChatGPT 則列了個方程解決這個問題:
整體來看,MOSS 雖然在算法題上表現出了一定的邏輯,但在包括寫文章、做數學題等具體解決方案的提供上,還有待繼續訓練提升。
" 隻是想驗證 ChatGPT 技術路線 "
針對種種疑問,團隊也在官網上做出了回應。
首先,是 MOSS 與 ChatGPT 的差距上。團隊表示,目前它還是一個非常不成熟的模型,距離 ChatGPT 還有很長的路需要走:
我們一個實驗室無法做出和 ChatGPT 能力相近的模型,隻是想在百億規模參數上探索和驗證 ChatGPT 的技術路線。
接下來,是針對服務器被擠爆的回應:
我們沒想到會引起這麽大關注,計算資源不足以支持如此大訪問量,向大家緻以真誠的歉意。
最後還有關于命名 MOSS 的回應:
就像過去 NLP 領域的其他優秀模型一樣,作者們都希望使用自己喜歡的影視角色名稱命名自己的模型。
此外,研究團隊還在介紹網站中詳細列出了 MOSS 的限制因素:
訓練數據中的多語言語料庫有限;
模型容量相對較小,不包含足夠的世界知識;
執行方式比較迂回,甚至不按照指示執行;
可能會生産不道德或有害的内容;
……
總結下來,就是 MOSS 的回答不及 ChatGPT 就是因爲它缺乏高質量的數據、計算資源以及模型容量。
不過,有意思的是,團隊表示,在這些問題裏面 MOSS 的最大短闆是中文水平不夠高。
具體來說,相較于英文問答能力,MOSS 的中文問答水平要低很多,這也與前面提到的預訓練模型學習數據量有關:
它的模型基座學習了3000 多億個英文單詞,而互聯網上的中文網頁幹擾信息如廣告很多,清洗難度很大,導緻中文詞語隻學了約 300 億個。
目前,複旦大學 NLP 實驗室正在加緊推進中文語料的清洗工作,清洗後的高質量中文語料也将用于下一階段模型訓練。
當然,和 ChatGPT 相比,MOSS 也不是 " 一無是處 "(手動狗頭),起碼它會在3 月份開源代碼。
而這一把也将會直接有效降低預訓練語言模型的研發和應用門檻,屬實是利好中小企業了,邱錫鵬教授也表示:
MOSS 的計算量相對不那麽大,中小企業都能用起來。
此外,研究團隊對 MOSS 的 " 野心 " 似乎還不止于對話問答、寫代碼等這些 ChatGPT 擁有的功能。
在這次面向公衆内測的同時,團隊還透露出了 MOSS 的下一步計劃:
結合複旦在人工智能和相關交叉學科的研究成果,賦予 MOSS 更多的能力,如繪圖、語音、譜曲和教學,并加強它輔助科學家進行高效科研的能力等。
研究團隊
MOSS 是複旦大學自然語言處理實驗室的成果,并且該項目還得到了上海人工智能實驗室的支持。
研究團隊由邱錫鵬帶隊,其餘幾位均爲複旦大學 NLP 實驗室的成員。
複旦大學自然語言處理實驗室,是由複旦大學首席教授吳立德先生創建,是我國最早開展自然語言處理和信息檢索研究的實驗室之一。
目前實驗室已經發表了大量高水平國際期刊和會議論文,其中包括中國計算機學會推薦的 A/B 類國際會議和期刊論文(ACL,SIGIR,IJCAI,AAAI,NIPS,ICML 等)論文 150 餘篇。
此外,複旦 NLP 實驗室還發布了國内首家中文自然語言開源系統 FudanNLP,被包括聯合國教科文組織在内的國内外多家研發機構采用。
邱錫鵬,複旦大學計算機科學技術學院教授,博士生導師,研究方向爲自然語言處理、深度學習,發表 CCF-A/B 類論文 70 餘篇。
他還主持開發了開源自然語言處理工具:FudanNLP 、FastNLP,獲得了學術界和産業界的廣泛使用。
對于複旦 MOSS 模型的發布,你的看法是?
參考鏈接:
[ 1 ] https://txsun1997.github.io/blogs/moss.html
[ 2 ] https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id=584634
[ 3 ] https://www.zhihu.com/question/585248111/answer/2903204899
[ 4 ] https://xpqiu.github.io/index.html