近年來,人工智能技術的飛速發展,催生了各種各樣的創新應用。在這之中,AI 聊天機器人的發展在各個行業領域中都展現出了巨大的潛力。那最近,作爲全球領先的顯卡制造商 NVIDIA 則宣布推出一款 AI 聊天機器人 "Chat with RTX"。根據描述,該機器人能夠與用戶進行自然、流暢的對話,最重要的是隻需本地的 RTX 顯卡即可運行。
Chat with RTX 借助檢索增強生成(RAG)、NVIDIA TensorRT-LLM 軟件及 NVIDIA RTX 加速技術,将生成式 AI 功能引入由 GeForce 賦能的本地 Windows PC。相比于現在市面上主流的 AI 聊天,它并非是在網頁和 APP 中運行,用戶需要将其下載到個人電腦中。這樣在效果上不僅運行速度會更快,在使用上也不會受太多外部因素的限制,真正意義上的本地運行。
用戶可快速輕松地将桌面端上的資料當成數據集,連接到 Mistral 或 Llama 2 這一類開源大型語言模型,以便快速查詢與上下文有關的内容。
這款 AI 聊天機器人不僅具備了出色的語義理解和自然語言的生成能力,還能夠根據用戶的需求提供個性化的服務和答複。用戶可以加入 YouTube 視頻和播放列表裏的信息,在 Chat with RTX 裏加入視頻網址,并根據視頻中的内容進行你想要的提問,它便會以極快的速度進行回複。這一突破性的技術将進一步推動人機交互的革新,并有望在智能助手、在線客服、教育輔助等領域發揮重要作用。
作爲人工智能領域的巨頭之一,OpenAI 一直以其先進的技術和研究成果著稱,其開發的 GPT 系列模型在自然語言處理領域表現出了驚人的能力。然而如今,NVIDIA 推出的最新 AI 聊天機器人 Chat with RTX 也展現出了強大的競争實力,尤其是其能夠在本地運行的特點,爲用戶提供了更多的選擇和便利。
Chat With RTX 的用法很簡單,隻需一個下載安裝的動作,就可以在自家的電腦上進行使用。當然除了要搭配 30 系以上的 GPU 之外,使用 Chat with RTX 還需要搭配操作系統 Windows 10 或 11 以及最新的 NVIDIA GPU 驅動。在大小上也需要用戶空出約至少 35G 以上的空間大小,各位在安裝上還請不要忘記檢查下自己的硬盤空間是否充足。此外安裝的過程對于網絡也有嚴格的限制,想要體驗的朋友可以看看自己是否滿足以上條件。
如果說之前人們不使用 Chatgpt 等 AI 對話的技術,是擔心洩露私人隐私于雲端服務器。那 Chat with RTX 是基于深度學習技術和大規模數據訓練而成的,借助于強大的 RTX 顯卡,在本地環境下即可運行,無需依賴于雲端服務器。你唯一需要的或許就隻是配備好 GeForce RTX 30 系列或更高版本的 GPU(至少 8GB 顯存)即可。
全新影馳 GeForce RTX 40 SUPER 系列 GPU 包括 GeForce RTX 4070 SUPER、4070 Ti SUPER 和 4080 SUPER,在 AI 工作負載方面,GeForce RTX 4080 SUPER 生成視頻的速度比 RTX 3080 Ti 快 1.5 倍,生成圖像的速度比 RTX 3080 Ti 快 1.7 倍。作爲在 PC 上體驗 AI 最佳的顯卡系列,專用 AI Tensor Core 可提供高達 836 AI TOPS,在遊戲、創作和日常工作等方面提供革命性的 AI 性能。
Chat With RTX 的橫空出世引發了業界的熱議,也展現出了人工智能技術在日常生活中的巨大潛力。随着技術的不斷創新和應用,相信 AI 聊天機器人将成爲未來智能化生活的重要組成部分,爲用戶帶來更加便捷、智能的體驗。