毫無疑問,AI 技術已經成爲了智能手機、電腦等個人運算設備的下一個轉折點。在上遊芯片領域,高通、英特爾等品牌已經完成了 NPU、AI 芯片等産品的産品布局,正旗幟鮮明地朝着 AI 技術落地進發。在産品側,自 2023 年骁龍峰會結束後,除 Apple 外各大品牌都争先推出采用 AI 大語言模型技術的具體産品。在前段時間才結束的 CES 2024 上,三星、華碩、聯想、戴爾等知名電腦品牌都發布了自己的「AI 電腦」産品,在三星「開箱日」(Unpacked)活動中,三星更是發布了其首批「AI 手機」——Galaxy S24 系列。
就連爲了照顧老舊硬件兼容性而常常慢半拍的微軟,也決定在未來的 Windows 11/12 中加入更多的 AI 功能。在 2023 年 Ignite 2023 開發者大會上,微軟 CEO 納德拉甚至表示微軟成爲了一家「Copilot 公司」。
圖片來源:微軟
但從硬件配置上,有些電腦似乎還沒有準備好迎接 AI 時代。
市場調查機構 TrendForece 的一則資訊中提到:
微軟已将 AI PC 中的内存基線設置爲 16 GB。從長遠來看,TrendForce 預計人工智能 PC 将促進對 PC 内存的年度需求增加,消費者升級趨勢進一步推動了這一需求。
換句話說,如果你電腦内存小于 16GB,微軟的 Copilot AI 很可能與你無緣。
對于你我這種數碼愛好者,16GB 的内存基線似乎不高,畢竟在 2023 年 12 月的 Steam 硬件調查中,内存小于 16GB 的玩家占比隻有不到 22%。但就像剛剛說的那樣,這個數字隻能代表 Steam 玩家。考慮到實際狀況,這個 22% 并不具有普适性。再說了,微軟的 Copilot AI 面向的更多的是工作場景,直接用 PC 玩家的高配遊戲電腦來參考并不科學。
圖片來源:Steam
考慮到大多數公司的商用電腦更換周期爲 3 年,我們不妨以 3 前,既 2020 年的配置來做參考。根據 Digital Trened 的數據,2020 年普通消費者的筆記本電腦通常隻配備 8GB 内存。 比如在 2020 年某市某數據中心的競價公告中,所采購的電腦内存就隻有 8GB,未達到「基準線」。
圖片來源:重慶市政府采購網
當然了,考慮到 Windows 11 的實際表現,微軟和 Copilot 其實沒有挑三揀四的底氣:根據 Statcounter 公布的數據,截至 2023 年 11 月,Windows 11 的系統占比僅爲 26.66%。與此同時 Windows 10 占比高達 68%,其餘的所有系統版本加起來占比都不到 Windows 10 的 50%。
再聯系到前段時間微軟正想盡一切辦法「驅趕」用戶改用 Windows 11,甚至不惜「開閘放水」允許用戶以自己的方式激活 Windows 11,小雷并不認爲微軟會在内存上爲未來的 Windows 11 用戶設計障礙,很有可能會在最後關頭放開内存限制,或允許用戶全量升級,但不保證關鍵應用的運行結果。
不過話又說回來,現在的 AI 大語言模型在智能手機上都能正常運行,高通甚至在 2023 骁龍峰會展示了極爲高效的手機 AI 大語言模型,難道 8GB 電腦就真的跑不動 AI 嗎?或者說有沒有什麽辦法可以讓 AI 大語言模型應用運行在 8GB 手機上呢?
辦法自然是有的,比如将本地模型和線上模型混合調用的混合式 AI 大語言模型。
從運行位置來說,當前 AI 大語言模型應用大緻可以分爲三類:本地運行、遠端運行和混合運行。本地運行很好理解,即整個模型就跑在當前正在交互的系統中,可以離線運行的 AI 大語言模型應用和專業玩家在自己電腦上部署的離線模型都屬于這一類。
遠端運行與之相反,指輸入輸出的設備和運行大語言模型的設備不在同一系統下的情況。那些通過網頁、微信小程序交互、或整個模型運行在遠端服務器上的 AI 應用就屬于遠端運行。
本地運行和遠端運行各有各的優勢和劣勢,比如本地運行可以斷網運行,将用戶數據保留在設備本地,降低數據洩露的風險;本地模型在響應速度上也不依賴于網速,可以顯著提升用戶體驗。遠端運行雖然要将數據發往遠端服務器并等待輸出結果返回,但因爲遠端服務器一般都是 HPC 集群,擁有的算力和用戶本地資源根本不是同一個數量級,所以在生成式模型應用中擁有更快的生成速度和更好的運算精度。
而混合運行模式則取兩家之長,根據應用的具體需求,可以靈活地在本地和雲端之間分配計算任務。例如,一些對響應速度要求高或需要即時處理的任務可以在本地執行,而那些對計算能力要求更高的分析和學習任務則可以在雲端進行。這種靈活性使得 AI 系統能夠更好地适應不同的使用場景,提供更加定制化的服務。
首先,混合模型在數據隐私和安全方面具有顯著優勢。随着數據洩露事件的頻繁發生,消費者對于個人信息安全越來越關注。在混合模型中,敏感數據可以在本地處理,不必傳輸到雲端,這大大降低了數據洩露的風險。對于一般消費者而言,這意味着他們可以更加放心地使用基于 AI 的應用,如智能家居設備和個人健康數據分析工具,無須過分擔心個人隐私被侵犯。
其次,混合模型提供了更好的性能和響應速度。對于需要實時反應的應用,如語音助手和在線遊戲,本地計算能夠提供更快的處理速度,避免了因數據傳輸至雲端而産生的延遲。而對于那些需要複雜計算和大量數據分析的任務,比如圖像識别和大型語言模型,可以利用雲端的強大計算能力來處理,從而提供高效率的 AI 服務。對消費者來說,這種結合了本地快速響應和雲端高效計算的模式能夠在不同場景下提供更加流暢和高效的體驗。
靈活性是混合模型的另一個重要優勢。它允許消費者根據自己的需求和偏好來選擇數據處理的方式。例如在家裏,消費者可能更傾向于使用本地計算來處理個人數據,以确保隐私;而在外出時則可能更依賴雲端服務來獲取信息和娛樂内容。這種靈活性使得混合模型能夠适應不同消費者的多樣化需求。
此外,混合模型對于設備兼容性和更新維護也更加友好。由于雲端計算可以提供最新的 AI 模型和算法,消費者不必頻繁更換本地設備就能享受到最新的 AI 技術。同時,對于一些本地計算任務,舊設備依然可以有效運行,這減少了設備更新的壓力,延長了設備的使用壽命,對于注重成本效益的消費者而言,這是一個重要的優勢。
甚至微軟自己也曾多次表示對混合 AI 大語言模型的重視,在 8GB 内存的「死線」下,相信微軟也絕對有能力提供基本的 AI 決策能力,讓 AI 大語言模型成爲一項「普惠」功能。
不過考慮到近幾年閃存技術突飛猛進的發展,16GB 的基準線未來也可能成爲辦公電腦的标配,畢竟這事關 AI 和「生産力」。相信在 AI PC 的浪潮面前,16GB 内存很可能會成爲 2024 年筆記本市場的「起步配置」。
圖片來源:Apple
當然了,售價高達 12999 元卻依舊隻有 8GB 内存的 M3 Macbook Pro 不在「AI 普惠工程」之内。