英偉達推出了自家版本的 ChatGPT,名字很有 GPU 的味道——
Chat With RTX。
英偉達的這款 AI 聊天機器人和目前主流的 " 選手 " 有所不同。
這波操作,不僅是在運行效果上會更快,也就意味着 Chat With RTX 在聊天内容上或許并沒有那麽多限制。
網友們也紛紛對這一點發出了感慨:
哇 ~ 這是本地運行的耶 ~
當然,在配置方面也是要求的,隻需要至少 8GB 的 RTX 30 或 40 系列顯卡即可。
那麽 Chat With RTX 的實際效果如何,我們繼續往下看。
英偉達版 ChatGPT
首先,值得一提的是,Chat With RTX 并非是英偉達自己搞了個大語言模型(LLM)。
它背後所依靠的仍是兩款開源 LLM,即 Mistral 和 Llama 2,用戶在運行的時候可以根據喜好自行選擇。
Pick 完 LLM 之後,就可以在 Chat With RTX 中上傳本地文件。
支持的文件類型包括 txt,.pdf,.doc/.docx 和 .xml。
然後就可以開始提問了,例如:
Sarah 推薦的餐廳名字是什麽?
由于是在本地運行,因此 Chat With RTX 生成答案的速度是極快的,真真兒的是 " 啪的一下 ":
Sarah 推薦的餐廳名字叫做 The Red Le Bernardin。
除此之外,Chat With RTX 另一個亮點功能,就是可以根據在線視頻做回答。
例如把一個油管視頻的鏈接 " 投喂 " 給它:
然後向 Chat With RTX 提問:
英偉達在 CES 2024 上宣布了什麽?
Chat With RTX 也會以極快的速度根據視頻内容作答。
至于其背後用到的技術方面,英偉達官方隻是簡單提了一句:" 用到了檢索增強生成 (RAG)、NVIDIA TensorRTLLM 軟件和 NVIDIA RTX 等。"
如何食用?
不過在配置上,除了 GPU 的要求之外,還有一些條件,例如:
系統:Windows 10 或 Windows 11
RAM:至少 16GB
驅動:535.11 版本或更新
不過 Chat With RTX 在大小上并沒有很輕量,共計大約 35G。
不然就會出現各種各樣的悲劇了:
不過實測被吐槽
The Verge 在英偉達發布 Chat With RTX 之後,立即展開了一波實測。
不過結論卻是大跌眼鏡。
其次,如果給 Chat With RTX" 投喂 " 過多的文件,例如讓 Chat with RTX 爲 25000 個文檔編制索引,它就直接 " 罷工 " 崩潰了。
以及它也 " 記不住 " 上下文,因此後續問題不能基于上一個問題。
不過槽點之外,The Verge 也比較中立地肯定了 Chat with RTX 的優點。
例如搜索電腦上的文檔,其速度和精準度是真香。
并且做總結也是 Chat with RTX 較爲擅長的内容:
更重要的是,在本地運行這樣的機制,給用戶文件的安全性帶來了保障。
那麽你會 pick 英偉達版的 ChatGPT 嗎?
參考鏈接:
[ 1 ] https://www.theverge.com/2024/2/13/24071645/nvidia-ai-chatbot-chat-with-rtx-tech-demo-hands-on
[ 2 ] https://news.ycombinator.com/item?id=39357900
[ 3 ] https://blogs.nvidia.com/blog/chat-with-rtx-available-now/
[ 4 ] https://twitter.com/rowancheung/status/1757429733837418610
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~