Mistral-Medium竟然意外洩露?此前僅能通過 API 獲得,性能直逼 GPT-4。
CEO 最新發聲:确有其事,系早期客戶員工洩露。但仍表示敬請期待。
換句話說,這個版本尚且還是舊的,實際版本性能還會更好。
這兩天,這個名叫 "Miqu" 的神秘模型在大模型社區裏炸了鍋,不少人還懷疑這是 LIama 的微調版本。
對此 Mistral CEO 也做出了解釋, Mistral Medium 是在 Llama 2 基礎上重新訓練的,因爲需盡快向早期客戶提供更接近 GPT-4 性能的 API, 預訓練在 Mistral 7B 發布當天完成。
如今真相大白,CEO 還賣關子,不少網友在底下戳戳手期待。
我們還是重新來回顧一下整個事件。1 月 28 日,一個名叫 Miqu Dev 的神秘用戶在 HuggingFace 上發布一組文件 "miqu-1-70b"。
文件指出新 LLM 的 " 提示格式 " 以及用戶交互方式同 Mistral 相同。
同一天,4chan 上一個匿名用戶發布了關于 miqu-1-70b 文件的鏈接。
于是乎一些網友注意到了這個神秘的模型,并且開始進行一些基準測試。
結果驚人發現,它在 EQ-Bench 上獲得 83.5 分(本地評估),超過世界上除 GPT-4 之外的所有其他大模型。
一時間,網友們強烈呼籲将這個大模型添加到排行榜中,并且找出背後的真實模型。
大緻懷疑方向主要有三個:
與 Mistral-Medium 是同一個模型。
有網友曬出了對比效果:它知道标準答案還說得過去,但不可能連俄語措辭也跟 Mistral-Medium 完全相同吧。
Miqu 應該是 LIama 2 的微調版本。
但另外的網友發現,它并不是 MoE 模型,并且同 LIama 2 架構相同、參數相同、層數相同,。
不過馬上就受到其他網友的質疑,Mistral 7b 也具有與 llama 7B 相同的參數和層數。
相反,這更像是Mistral 早期非 MoE 版本模型。
不過讨論來讨論去,不可否認的是在不少人心中,這已經是最接近 GPT-4 的模型了。
如今,Mistral 聯合創始人兼首席執行官 Arthur Mensch 承認洩露,是他們一位早期客戶員工過于熱情,洩露了他們訓練并公開發布的一個舊模型量化版本。
至于 Perplexity 這邊 CEO 也澄清說,他們從未獲得過 Mistral Medium 的權重。
網友擔心是否會撤下這個版本。
有趣的是,Mensch 并沒有要求删除 HuggingFace 上的帖子。
而是留下評論說:可能會考慮歸屬問題。
參考鏈接:
[ 1 ] https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/
[ 2 ] https://twitter.com/teortaxesTex/status/1752427812466593975
[ 3 ] https://twitter.com/N8Programs/status/1752441060133892503
[ 4 ] https://twitter.com/AravSrinivas/status/1752803571035504858
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~