在十多年來關注度最高的一次 WWDC 大會上,蘋果也不出市場預料地以 one more thing 炸場,發布了其繼 Mac、iPhone、iPad、Watch 之後的全新計算平台——混合現實頭顯 Vision Pro。
從發布會現場演示和後續的媒體試用評價來看,作爲首款完全在庫克領導下開發的硬件終端,Vision Pro 的确不負衆望,集蘋果十多年來積累的工業設計和工程學能力于一體,堪稱 " 世界上最先進的消費電子設備 ",也表現出了庫克所期待的成爲下一部 iPhone 的潛力。
不過,雖然 Vision Pro 在發布會上技驚四座,但隔夜美股蘋果股價卻最終小幅收跌。
知名蘋果分析師郭明錤認爲,這主要是因爲 Vision Pro 高昂的售價(高達 3499 美元,無緣大衆市場)和遙遠的發售日期(明年初美國市場首發)不利于短期投資情緒,且在演示環節中,沒有明确展現出日常使用的必要性。
簡單來說就是,雖然頭顯很酷很有科幻感,但缺乏類似手機、電腦那樣的必要性。華爾街見聞在此前文章中提及,市場普遍質疑,消費者爲什麽要把在傳統設備上能輕松完成的事情,轉移到轉移到一台價格高達 3000 美元、交互更麻煩的頭顯上?
盡管如此,蘋果和庫克,也是毋庸置疑的赢家。通過這場時長 2 個多小時、内容量大管飽的 " 科技春晚 ",蘋果不僅展現了其在軟硬件研發上無可撼動的實力,在類似 AI 和腦機接口這樣的新技術領域,也低調務實地小小秀了一下肌肉。
Vision Pro:什麽元宇宙?别沾!
從發布會的演示來看,Vision Pro 這款産品的确科幻感拉滿。
在交互上,這款酷似滑雪鏡的頭顯可以隻靠眼睛、語音和手勢來操作,沒有笨重的外置手柄或此前市場猜測的智能手環。
戴上頭顯并通過 Optic ID(虹膜 ID)解鎖後,就能體會到類似鋼鐵俠電影的場景:
眼睛所見的依然是你周圍的世界,但整個 Vision 操作系統将會浮現在你眼前,包括蘋果生态中的幾十萬個 App,以及微軟 office 辦公軟件、蘋果自帶相冊、備忘錄等,隻需要自然注視和雙指捏合,就可以打開你需要的 App。
在娛樂體驗上更是碾壓同類競品,在發布會現場演示中,蘋果展現了 Vision Pro" 空間計算 " 的能力。隻需要轉動頭顯上的旋鈕,就可以将眼前正在播放的電影畫面無限放大,讓周圍的環境與你觀看的内容融爲一體。想象一下,在高鐵上、飛機上、任何一個房間裏,隻要打開 Vision Pro,你就能擁有一個私人影院。蘋果還在發布會現場直接拉來了迪士尼 CEO Bob Iger,官宣迪士尼内容将登陸 Vision Pro。
此外,蘋果還格外強調 Vision Pro 不是一款會将用戶和環境隔絕開的設備。當有人靠近你時,頭顯的前玻璃就會變成透明狀态,方便别人看到你的眼睛與你進行交流;當你在進行沉浸式體驗時,頭顯則會呈現爲不透明狀态,提醒别人你看不到他們。
相比 Meta Oculus 家族那樣純粹的 VR 設備,Vision Pro 能夠無縫連接現實與虛拟世界。無愧爲當今最好最貴的頭顯,至少在觀感上,遠超市面上所有錨定 " 元宇宙 " 的 VR 設備。
華爾街見聞此前提及,庫克非常不喜歡元宇宙這個概念,在整個發布會進行中,蘋果沒有提到過一次 " 元宇宙 "。
WWDC 發布會之後,好事的網友做出了如下對比圖:
蘋果通過 AI 技術和十多個攝像頭生成的用戶數字角色(Digital Persona)
紮克伯格虛拟人
低調務實的 AI 策略
盡管新推出的混合現實頭顯設備 Vision Pro 幾乎吸引了人們的所有目光,但蘋果并沒有大談特談在 AI 這方面的技術進展,而是 " 用事實說話 ",告訴人們 AI 技術落地能實現什麽,從而更切實際地改進用戶們的體驗。
事實上,作爲一家産品公司,蘋果通常不喜歡談論 " 人工智能 " 本身,而是喜歡 " 機器學習 " 這一更具有學術性質的詞語,或者僅僅談論技術落地所能帶來的變革。這可以讓蘋果更專注于研發和展現産品本身,以及如何優化用戶體驗。
具體來看,在大會上,蘋果宣布改進了基于機器學習程序的改進型 iPhone 自動糾錯功能,該功能使用轉換語言模型,與支持 ChatGPT 的技術相同。蘋果表示,它甚至會從用戶的文本和打字方式中學習,從而優化用戶的體驗。
此外,蘋果還改進了 AirPods Pro 的用戶體驗,它可以在用戶進行對話時自動關閉降噪功能。雖然蘋果并沒有将這一改進定義爲 " 機器學習 " 功能,但這是一個很難解決的問題,而解決方案卻是基于 AI 模型的。
另一個蘋果很實用的創意是用新數字角色(Digital Persona)功能對用戶的臉部和身體進行 3D 掃描,用戶在戴着 Vision Pro 頭顯與其他人進行視頻會議時,就可以虛拟地重現他們的模樣;蘋果還提到了其他幾項利用該公司在神經網絡方面進展的新功能,比如識别在 PDF 中需要填寫字段的功能。
頭顯設備暗藏腦機接口技術?
周二,一位在 AR/VR 領域工作十年、擔任蘋果 AR 神經技術研究員的網友 Sterling Crispin 發推文,介紹了蘋果 AR 的神經技術研發過程。
據 Crispin 介紹,他在蘋果的工作包括支持 Vision Pro 的基礎性開發,正念體驗,還有更多極具挑戰的神經技術研究。總的來說,他的很多工作涉及到用戶在沉浸式體驗中的身體和大腦的數據檢測其精神狀态。
用戶在混合現實或虛拟現實體驗中,AI 模型試圖預測用戶是否感到好奇、思維遊離、害怕、注意、回憶過去的經曆,或其他一些認知狀态。
這些可以通過眼球追蹤、大腦中的腦電活動、心髒跳動和節律、肌肉活動、血液密度、血壓、皮膚傳導等測量來推斷,使預判行爲成爲可能。
根據蘋果的專利說明和 Crispin 的介紹,蘋果的神經技術可以做到預測用戶行爲、根據用戶狀态調整虛拟環境。
最酷的結果是在用戶實際點擊之前預測他們會點擊什麽,人們的瞳孔在點擊之前往往有反應,原因是人們會期望在點擊之後會發生什麽。
這時可以通過監測用戶的眼睛行爲來創造生物反饋,并實時重新設計用戶界面,以創造更多預期的瞳孔反應。這是一個通過眼睛實現的粗略 " 腦機接口 ",用戶不用接受侵入性的腦部外科手術。
推斷認知狀态的其他技術,包括以用戶可能無法察覺的方式向他們快速閃現視覺或聲音,然後測量他們的反應。
另一項專利詳細介紹了使用機器學習和來自身體和大腦的信号來預測用戶注意力有多集中,或放松,或學習效果如何,然後更新虛拟環境以增強這些狀态。
想象一下自适應的沉浸式環境,通過改變背景中看到和聽到的東西來幫助你學習,或工作,或放松。