GPT-4V 來做目标檢測?網友實測:還沒有準備好。
雖然檢測到的類别沒問題,但大多數邊界框都錯放了。
沒關系,有人會出手!
那個搶跑 GPT-4 看圖能力幾個月的迷你 GPT-4 升級啦——MiniGPT-v2。
△(左邊爲 GPT-4V 生成,右邊爲 MiniGPT-v2 生成)
而且隻是一句簡單指令: [ grounding ] describe this image in detail就實現的結果。
不僅如此,還輕松處理各類視覺任務。
圈出一個物體,提示詞前面加個 [ identify ] 可讓模型直接識别出來物體的名字。
當然也可以什麽都不加,直接問 ~
MiniGPT-v2 由來自 MiniGPT-4 的原班人馬(KAUST 沙特阿蔔杜拉國王科技大學)以及 Meta 的五位研究員共同開發。
上次 MiniGPT-4 剛出來就引發巨大關注,一時間服務器被擠爆,如今 GItHub 項目已超 22000+ 星。
此番升級,已經有網友開始用上了 ~
大模型作爲各文本應用的通用界面,大家已經司空見慣了。受此靈感,研究團隊想要建立一個可用于多種視覺任務的統一界面,比如圖像描述、視覺問題解答等。
「如何在單一模型的條件下,使用簡單多模态指令來高效完成各類任務?」成爲團隊需要解決的難題。
簡單來說,MiniGPT-v2 由三個部分組成:視覺主幹、線性層和大型語言模型。
該模型以 ViT 視覺主幹爲基礎,所有訓練階段都保持不變。從 ViT 中歸納出四個相鄰的視覺輸出标記,并通過線性層将它們投影到 LLaMA-2 語言模型空間中。
團隊建議在訓練模型爲不同任務使用獨特的标識符,這樣一來大模型就能輕松分辨出每個任務指令,還能提高每個任務的學習效率。
訓練主要分爲三個階段:預訓練——多任務訓練——多模式指令調整。
最終,MiniGPT-v2 在許多視覺問題解答和視覺接地基準測試中,成績都優于其他視覺語言通用模型。
最終這個模型可以完成多種視覺任務,比如目标對象描述、視覺定位、圖像說明、視覺問題解答以及從給定的輸入文本中直接解析圖片對象。
感興趣的朋友,可戳下方 Demo 鏈接體驗:
https://minigpt-v2.github.io/
https://huggingface.co/spaces/Vision-CAIR/MiniGPT-v2
論文鏈接:https://arxiv.o rg/abs/2310.09478
GitHub 鏈接:https://github.com/Vision-CAIR/MiniGPT-4
參考鏈接:https://twitter.com/leoyerrrr