着實有點 Amazing 啊。
這兩天 GPU 圈子發生了個事兒,被網友們讨論地津津樂道——有一款顯卡賣爆了。
火到什麽程度呢?就是一進貨就被搶光。
GPU 供不應求其實已經司空見慣了,但之所以這次能被熱議起來,是因爲這款産品背後的廠家。
不是你以爲的 NVIDIA、AMD,而是…… Intel。
爲什麽會如此?
從玩家們的讨論中不難得出答案——性價比夠高,2000 元價位就能在 2K 畫質下暢玩 3A 遊戲。
The Verge 也非常 " 直給 " 地給予了一句評價:
Intel 終于在 GPU 上拿下了一次勝利。
而這款顯卡,正是 Intel 不久前發布的第二代銳炫 B580,售價僅 2049 元起。
要知道,NVIDIA 299 美元的 RTX 4060 和 AMD 269 美元的 RX 7600,僅配備了 8GB 的 VRAM。
但 Intel 的銳炫 B580 不僅價格比它們低,還配備了 12GB 的 VRAM 和 192bit 的顯存位寬。
即使是價格更低的銳炫 B570(219 美元,下個月上市)也配備了 10GB 的 VRAM。
除此之外,還有一個更有意思的事情。
雖然銳炫是遊戲顯卡,但畢竟是 GPU 啊,于是……也有一部分人買來開始搞 AI 了。而這,可能會讓它未來的銷售再增三分熱度。
這不,有人在 Reddit 上就分享了怎麽在銳炫 B580 上搞 AI 畫圖 Comfy UI 了:
不僅是個人用戶的嘗鮮,我們還打聽到有些企業已經着手把 Intel 的顯卡塞進包括工作站和服務器在内的商用計算設備中了,具體搭配的 " 食譜 " 就是:Intel 至強系列 CPU+ 銳炫顯卡。
不過暫時用的還是 Intel 上一代的 A770,作爲上一代的旗艦型号,A770 有着 16G 大顯存,用在 AI 推理上,也算遊刃有餘。
據可靠的消息,如此組合最爲搶眼的優勢,同樣是 " 性價比 " 三字。
而由此引發的,更值得讨論的一個話題應當是:
消費級顯卡搞 AI,到底行不行?
首先可以看出來,無論個人還是企業,買 Intel 消費級顯卡來搞 AI,基本都是來做 AI 推理的。
實際上,推理算力需求正在飛速增長,大有超過訓練算力需求之勢。
一方面,随着行業熱議的 " 預訓練 Scaling Law 撞牆 " 了,像 OpenAI o1/o3 系列模型也開始依靠增加推理算力提高模型能力。
另一方面,AI 應用落地的爆發也使得推理需求大幅增長,這些需求往往不強求算力的溢出甚至極緻,即所謂硬需求不高,而是更加注重實現夠用的性能(包括并發度和時延),以及與之同步的易獲取、易部署、易使用和成本上是否夠實惠。
那麽做AI 推理爲什麽選擇 Intel 遊戲顯卡?
正如前面分析,性價比肯定是一大考慮因素。
從硬件方面講,即使是頂級的算力卡,單卡做 AI 推理在面對高并發等場景時,顯存也會成爲瓶頸,但升級到四卡、八卡成本又會飙升。此時,Intel A770 這種 2000 元價位就有 16G 大顯存的型号,就成了兼顧性能與成本之選。
從應用方面講,很多場景其實對每秒 token 生成速度要求并不高,特别是有流式傳輸等優化手段,隻要 first token latency 到位了,後面生成速度滿足一定要求,體驗就很好。
這是我們拿到的 4 張 Intel 銳炫 A770 顯卡跑 Qwen2.5 32B 模型的演示 Demo,來感受一下這個速度,是不是足夠了?
看到這裏可能有人要問了,用 Intel 顯卡跑 AI,CUDA 的問題怎麽解決?
拿最流行的大模型推理框架之一 vLLM 來說,得益于開源軟件的發展,其早已實現了高級别的抽象和封裝,其實換用哪種硬件,用起來都沒差太多。
再加上 Intel 自己提供的開源 oneAPI,就能做到很低的遷移成本。
可能還有人要問了,那爲什麽不選專用 AI 推理加速器,比如風頭正盛的 Groq、Sambanova 這些?
這就要說到,多模态交互是現在 AI 應用的一大趨勢,無論是與 AI 視頻對話、數字人,還是直播、短視頻場景的一些應用,都同時會用到視頻解碼或圖形渲染能力,這就非得是通用 GPU不可。
專用加速器雖然在特定任務上有優勢,但在處理多樣化需求時,通用 GPU 更具靈活性。
所以總結來看,用 Intel 顯卡搞 AI 推理,算力夠用,大顯存還有,可行性就有了,性價比也有了,對于現有業務來說,遷移成本更是理想。
後面能拿下多大市場,會不會成爲一個趨勢,就拭目以待了。
Intel 的曲線突圍
Intel 消費級顯卡被企業拿去搞 AI 推理了,Intel 自己是什麽态度?
那肯定是樂見其成的,而且相當重視。
其實,Intel 在兩年前剛推出銳炫系列時就采取與友商不同的策略,許可證方面明确不限制數據中心使用。
爲了方便大家用好 AI,Intel 的軟件團隊一直沒閑着,除了更新 oneAPI,還在持續推出和更新一系列開源工具,吸粉不斷。
例如加速庫 IPEX-LLM,可用于大模型的推理和微調,在 GitHub 上已經有 6.8k star。
以及低比特量化工具 neural-compressor,也獲得 2.3k star。
從 IPEX-LLM 也可以看出 Intel 對中國市場的重視,針對中國主流的開源大模型 ChatGLM、Qwen、MiniCPM 等都提供了适配,中文文檔和教程也做的比較完善。
爲了方便大家選擇模型,Intel 還在 HuggingFace 上維護了一個低比特量化模型的排行榜,設置好條件,就可以一鍵比較并篩選出自己需要的模型。
其中性能排名靠前的,不乏 Intel 自己動手量化的開源社區優秀模型。
這麽看下來,Intel 爲 AI 開源社區做的衆多貢獻,給企業和開發者提供了便利,也是現在大家願意嘗試 Intel 顯卡的原因之一。
最後,我們還打聽到一個内幕消息:
Intel 看到 AI 推理這個市場需求逐漸擴大後,在後續産品策略上也有所調整。
2025 年,Intel 準備推出 Battlemage 系列顯卡的更大顯存版本,其容量将增至 24G。
以後就是現有版本繼續服務于遊戲等消費級市場,24G 的更大顯存版本瞄準" 生産力市場 "。
" 生産力市場 " 的目标用戶涵蓋了數據中心、邊緣機房、教育科研和個人開發者等。
擁有更大顯存的 Intel 顯卡,不僅可在 AI 推理需求上,也能在渲染和視頻編解碼應用上做到比專業圖形卡、工作站顯卡性價比更高。
還真别說," 從遊戲人間轉向打工賺錢 "+" 算力夠用、顯存保大 ",很有可能會成爲 IntelGPU 突圍的一招妙棋。
參考鏈接:
[ 1 ] https://www.reddit.com/r/pcgaming/comments/1hh2dvn/intel_finally_notches_a_gpu_win_confirms_ 銳炫 _b580/
[ 2 ] https://www.techspot.com/news/105810-intel-launches-new- 銳炫 -battlemage-b580-b570-gaming.html
[ 3 ] videocardz.com/newz/intel-will-not-prohibit-gaming- 銳炫 -gpu-use-in-data-centers
[ 4 ] https://github.com/intel-analytics/ipex-llm
[ 5 ] https://github.com/intel/neural-compressor [ 6 ] https://huggingface.co/spaces/Intel/low_bit_open_llm_leaderboard