這一研究成果有望爲解決當前芯片能耗問題帶來新的可能。
作爲推動人工智能(AI)行業快速發展的三大要素之一,算力是 AI 發展的重要基礎。如果算力跟不上算法、數據的發展,AI 行業也很難有新的颠覆性突破出現。
而芯片,是算力的核心,決定了平台的基礎設施和發展生态。
近日,包括 OpenAI 人員在内的 19 位業内專家在一篇最新報告中将硬件作爲 AI 安全治理的重點。這在一定程度上表明,芯片在 AI 行業的發展中正起着越來越重要的作用。(點擊查看詳情 )
然而,當前用于 ChatGPT、Sora 等模型訓練的 AI 芯片大多依賴電力供能,巨大的使用需求讓其成爲了龐大的耗能體。
例如,作爲最熱門的 AI 處理器之一,英偉達的 AI 芯片 H100 的峰值功耗高達 700 瓦,超過了普通美國家庭的平均功耗。專家預測,随着大量 H100 芯片被部署,其總功耗将與一座美國大城市不相上下,甚至超過一些歐洲的小國家。
圖|英偉達 AI 處理器 DGX H100。
因此,研發節能高效的 AI 芯片已成爲學界、業界高度關注的研究方向之一,對 AI 行業的可持續發展至關重要。
如今,來自美國賓夕法尼亞大學、諾基亞貝爾實驗的研究團隊提出了一種新型 AI 芯片——利用光波進行複雜數學運算,從而提升計算機處理速度并降低能耗。這一研究成果有望爲解決當前芯片能耗問題帶來新的可能。
相關研究論文以 "Inverse-designed low-index-contrast structures on silicon photonics platform for vector-matrix multiplication" 爲題,已發表在 Nature 子刊 Nature Photonics 上。
該論文的通訊作者、本傑明 · 富蘭克林獎章獲得者、賓夕法尼亞大學 H. Nedwill Ramsey 教授 Nader Engheta 表示,由于生産芯片的商業代工廠的限制,這種設計已經可以用于商業應用,并有可能被改裝用于圖形處理器(GPU)。" 它們可以采用矽光子公司的平台作爲附加組件,這樣就可以加快訓練和分類的速度。"
此外,Engheta 教授也表示,除了速度更快、能耗更低之外,這種矽光子芯片還具有隐私方面的優勢:由于許多計算可以同時進行,因此無需在計算機的工作内存中存儲敏感信息,這使得未來采用這種技術的計算機幾乎無法被黑客攻擊。
提速、節能,矽光子芯片是如何做到的?
目前,AI 算法呈現出複雜化和高度并行化的趨勢,需要進行大量的數學運算,如矩陣乘法、向量運算等。而傳統的計算設備往往無法滿足這種高速、高效的計算需求。
在進行複雜數學運算時,傳統計算設備往往消耗大量能源,能耗已成爲制約 AI 技術發展的重要因素之一。而利用光波進行計算的新型芯片具有能耗低、高效等優點,可以有效解決能耗問題,推動 AI 技術的可持續發展。
光子學作爲一門新興的技術領域,在 AI 領域的應用前景廣闊。利用光波進行複雜數學運算,不僅可以提高計算速度、降低能耗,還可以在矽光子平台等基礎上實現更多功能,如量子計算、光學神經網絡等,爲 AI 技術的發展開辟新的技術可能性。
研究團隊通過使用将納米材料與矽光子平台相結合的方法,成功實現光波與物質的相互作用,從而得到高效的數學運算。這項技術的實現主要有 3 個關鍵點:
首先是光波計算。光波是一種電磁波,具有高速傳輸、高頻率和低能耗的特點。通過利用光波的這些特性,可以實現高效的數學計算。
其次是納米材料。納米材料尺寸微小,可以在納米尺度上進行精确控制。通過在納米材料上施加電場或光場等外界作用,可以實現對光波的精确調控和控制。
此外,新型芯片還利用了矽光子平台。矽光子學是利用矽基材料制造光電子器件的技術,具有集成度高、成本低廉、光電轉換效率高等優點。在新型芯片中,矽光子平台用于實現光波的傳輸、調制和探測。
圖|基于矽光子學的逆向設計元結構,用于執行 2 × 2 和 3 × 3 矢量矩陣乘法。
矽光子平台爲光波傳輸提供通道,經過調制的光波可以在芯片内部進行自由傳輸,完成各種數學運算操作。在完成數學運算後,通過在芯片中添加光波探測器,可以實現對光波的快速檢測和信号讀取,完成對光波的探測和檢測,從而得到最終的計算結果。
圖|模拟與實驗結果比較。a)實驗的顯微照片,顯示了幾個 2 × 2 和 3 × 3 内核和各種校準結構,3 × 3 内核已放大顯示;b、c)測量的透射率值的比較;d、e)分别是 2 × 2 和 3 × 3 元結構的測量透射率值(細實線)和 3D 模拟結果(粗實線)與波長的關系。垂直灰線爲 λ0 = 1.525 μm 處的設計波長。盡管 p2DEIA(parametric 2D electromagnetic inverse algorithm)模型存在限制且測量存在缺陷,但目标、p2DEIA、3D 和 λ0 = 1.525 μm 處的測量透射值之間的良好一緻性表明 p2DEIA 作爲計算工具可成功用于 3D 平面結構的逆向設計。
需要注意的是,盡管該項研究取得了一些重要的進展,并爲 AI 行業提供了新的解決方案,但仍然存在一些局限性,如下:
1. 界面誤差影響:該論文提到,p2DEIA 模型在處理大型結構時可能引入一些界面誤差。這些誤差可能源于接口處的模型不完全匹配或未考慮到的出射散射。對于更大的結構,這種誤差可能會進一步增加,因此可能需要更複雜的接口模型來準确描述出射散射和非傳播模式的存儲能量。
2. 計算資源需求:雖然 p2DEIA 模型能夠在處理大型結構時顯著減少計算資源的需求,但對于更大的結構,仍可能需要更多的計算資源來進行模拟和優化。特别是在進行大規模逆向設計時,需要進行數百次叠代的模拟,這可能需要更強大的計算設施。
3. 光子集成技術限制:雖然論文中提到了将納米材料與矽光子平台相結合的方法,但該方法仍然受到光子集成技術的一些限制。例如,可能存在制造納米結構的複雜性,以及與矽光子平台的集成可能會受到材料兼容性和工藝兼容性的影響。
4. 應用場景适用性:雖然該項研究展示了在處理大規模數據時的潛在優勢,但是在實際應用中,這些芯片的性能和适用性可能會受到特定應用場景的限制。不同的應用場景可能在能耗、速度、精度等方面有不同的要求,需要對芯片進行進一步的優化和定制化。
低功耗已成新型芯片必備特點
近年來,爲應對 AI 算法的快速發展和應用需求,學界、業界在 AI 芯片領域已經取得了一些重要進展,主要集中在提升計算性能、降低能耗、增強硬件智能等方面。
1. 基于 GPU 的加速器:GPU 加速器已成爲 AI 計算的主流選擇之一。通過利用 GPU 的并行計算能力,可以大幅提升 AI 算法的運行速度。近年來,爲滿足人工智能應用的需求,NVIDIA 等公司不斷推出性能更強大、功耗更低的 GPU 産品。
2. ASIC 芯片的發展:ASIC(專用集成電路)芯片是針對特定應用場景進行定制設計的芯片,具有性能高、功耗低的特點。近年來,一些公司推出了針對 AI 算法優化的 ASIC 芯片,如 Google 的 TPU(Tensor Processing Unit)和 NVIDIA 的 Tesla 系列。這些芯片在深度學習算法的訓練和推理等方面表現出色,在性能上取得了顯著的提升。
3. FPGA 芯片的應用:FPGA(現場可編程門陣列)芯片具有靈活性高、功耗低的特點,适合用于加速 AI 算法的運行。一些研究團隊正在探索如何利用 FPGA 芯片實現深度學習算法的加速。通過對算法進行硬件優化和并行化設計,可以在 FPGA 芯片上實現較高的性能和能效比。
4. 神經形态芯片的研究:神經形态芯片是一種模仿生物神經網絡結構和工作原理的新型芯片。它具有并行性強、能耗低的特點,适合用于實現智能感知和學習功能。一些研究機構和公司正在開展神經形态芯片的研究,試圖實現更加智能化的 AI 計算設備。
然而,新型芯片從誕生到成熟應用,還有很長的路要走。
未來,新型芯片仍需要進一步提升其計算性能和能耗效率,實現更高效的數據處理和智能計算。此外,加強新型芯片與現有計算平台和設備的兼容性,實現系統級集成。而且,新型芯片也需要與各個領域融合,包括自動駕駛、醫療健康、智能制造等。