圖片來源 @視覺中國
文 | 追問 NextQuestion,作者 | 梓薇,編輯 | 韻珂
和大語言模型(LLM)交互,我們總會隐約覺得它們可能真的有意識。然而,從神經科學家們的視角來看,這種觀點似乎很難站得住腳。
最近,一篇發表于 Cell 子刊 Trends in Neurosciences 的論文中,三位分别來自計算機科學、生物學和神經科學的學者深層剖析了" 人工智能能否産生意識?"這個問題。
從結論上看,他們一緻認爲:LLM 在目前的形式下不可能具有意識。這麽斬釘截鐵的觀點是怎麽來的呢?來看他們的具體闡述。
▷圖源:Cell
LLM 與意識
長期以來,人們一直在追問,哪些動物具有意識,以及除了動物之外還有哪些實體擁有意識。最近 LLM 的出現爲這個問題帶來了全新的視角。它向我們展現了自己精湛的交談能力(這是人類具有意識的一種表現),也使我們對 " 理解力 "、" 智能 " 和 " 意識 " 三個概念開始重新定義和思考。
LLM 是擁有數十億連接權重的複雜多層人工神經網絡,這些權重通過數百億字的文本數據進行訓練,這其中也包括人類之間的自然語言對話。通過文字提問,用戶會被引入一個令人着迷的模拟語境中。如果你肯花時間使用這些系統,就很難不被其網絡内部所展現出來的深度和質量所震撼。問它一個問題,它的回答往往與一個具有意識的個體能産生的回答微妙的相似。因此,作爲一個有洞察力、有意識的個人,我們就很容易得出結論:我所接收到的回答是由一個同樣具有 " 意識 " 的個體産生的,這個有 " 意識 " 的個體既能夠思考、感受、推理,還頗具經驗。
基于這類 " 圖靈測試 " 結果,我們不禁要問,LLM 是否已經具有意識,抑或是即将擁有意識?然而,這個問題反過來又将引出一系列的道德困境,例如繼續開發在 " 意識 " 覺醒邊緣反複徘徊的 LLM 是否合乎倫理?在當今神經科學界,人們并不普遍接受 LLM 具有 " 意識 " 這一觀點,但随着人工智能系統能力的不斷提升,關于該觀點的讨論不可避免地又重新被擺上台面。此外,各大新聞媒體也在廣泛讨論這一問題,促使着神經科學家們從自己專業的角度對這一問題進行客觀的正反解讀。
關于 LLM 具有潛在意識的觀點往往會得到一類重要依據的支持,那就是 LLM 的架構在很大程度上受到了大腦特征的啓發(圖 1),而大腦是我們目前唯一能自信地将其歸因于 " 有意識 " 的對象。盡管早期的人工神經網絡是以大腦皮層的簡化版爲基礎來設計的,而現代的 LLM 經過高度工程化,并根據特定目的進行了調整,不再保留與已知大腦結構的深層同源性。事實上,許多讓 LLM 在計算上強大的通路特征(圖 1)與我們目前認爲在哺乳動物的意識産生和塑造中具有因果力的系統有着截然不同的架構。例如,與意識産生相關的許多神經科學理論認爲,丘腦 - 皮質系統與覺醒系統在意識處理中發揮了核心作用,然而,現代 LLM 并不具備這兩大系統。
圖 1:哺乳動物大腦和大型語言模型之間的宏觀拓撲差異 圖源:Trends in Neurosciences
這時有人可能會問,爲什麽 LLM 的架構要模仿大腦的特征,這一點有那麽重要嗎?
在我們看來,主要原因是:我們目前隻能确定一種意識的存在,它來自嵌入複雜身體的大腦。有人可能認爲,從嚴格意義上說,這個論點可能要進一步縮減到僅涉及人類,盡管許多被認爲對主觀意識發揮重要作用的系統級特征在整個生物譜系上普遍存在,一直延伸到哺乳動物,甚至是無脊椎動物。
話說回來,讓我們首先從 " 意識 " 的确切含義開始。然後,我們将提出三個反對當前人工智能系統具有或未來将很快具有意識的觀點的論點:
1. 意識與對生物體有意義的感覺流相關聯;
2. 在哺乳動物大腦中,意識得到高度相互連接的丘腦 - 皮質系統的支持;
3. 意識可能與生物體系的複雜生物組織密不可分。
意識是什麽?
意識是一個複雜的概念,其定義一直存在争議。在人類彼此能交流互動的背景下,交流對話能力是評估一個人是否具有意識的本能要素。
與 LLM 基于語言的互動對話常常是在培養一種直觀的感受,這也是用于判斷 LLM 是否可能具有意識的起點。然而,盡管 LLM 的交互式對話能力非常出色,但這并不能達到具有意識的正式客觀的衡量标準,隻是其具有智能的初步證據。
LLM 的出現使得我們需要重新評估一個人是否能夠直接從與他人的言語互動中産生意識。因此,一種新的觀點認爲,我們需要重新制定類人能力和類人特征的評判标準。
" 意識 " 一詞往往具有不同的含義。例如,神經病學家經常提到的 " 意識水平 ",即首先評估一個人是否具有意識,再以一種更精細的方式評估意識的層次或特定狀态。相比而言,心理學家則更關注意識的内容:即個人内心世界的具體經驗、記憶和思想。此外,意識的不同内容之間也有區别。我們的經驗可以被描述爲現象或體驗性的(比方說,看到或聞到一個蘋果,或者觸摸到你的手臂),也可以是更抽象的形式(例如,我們如何想象、展望或操作概念記憶)。
關于人工智能系統是否具有意識這一問題,可以通過多種測試方式來回答:既可以重點關注意識的某些含義,也可以同時關注意識的所有含義。在下文中,我們主要關注現象意識,并探讨機器是否能夠現象性地體驗世界。
關于環境
生物體在感知外界世界的過程中能夠被利用的部分被稱爲它的環境。例如,人類視網膜對波長 380 nm – 740 nm 的光有反應,即視網膜能夠感知由藍到紅的光譜。如果沒有外界技術輔助,人類就無法檢測到該波長範圍之外的紅外光(>740 nm)或紫外光(
也就是說,不同動物的身體和大腦能夠感知它們周圍環境的敏感性不同。美國心理學家 Gibson 将生物體在特定的環境中的行動可能性稱爲 " 可供性 "(随着互聯網技術的滲透,可供性開始被用于解釋數字技術在媒體實踐和人類日常交往中的應用)。
按這麽定義,那麽 LLM 的環境是什麽?LLM 具有怎樣的可供性?根據其算法設計的本質,LLM 僅具有二進制編碼模式,隻能接收二進制信息輸入,并進一步執行複雜的 transformer 結構中固有的網絡算法,這構成了當今 LLM 的工作架構。雖然神經元尖峰發放也能夠将傳入的模拟信号編碼爲數字信号(即二進制信号),但傳遞到 LLM 的信息流是高度抽象的,這些高度抽象的信息流本身與外部世界并沒有任何緊密的聯系。被編碼成一串字母的文本和語音根本無法與自然世界的動态複雜性相匹配,即 LLM 的環境(提供給它的二進制信息)與我們睜開眼睛或交流對話時進入大腦的信息以及随之而來的體驗相比,具有本質區别。傳統哲學論述強調了不同物種之間信息流的獨特性(例如,人類與蝙蝠之間的區别)以及這些經驗的現象學特征。我們認爲,LLM 獲得的信息輸入可能會表現出更顯著的差異,雖然暫時還沒有确切的方法來量化這種差異。
話雖如此,未來人工智能系統的輸入将會不可阻擋地變得更加豐富。未來的 LLM 可以配備不同類型的輸入,這能夠與有意識的智能體每天能訪問的信号類型(即自然世界的統計數據)更好地進行匹配。那麽,未來人工智能系統的可用環境會比人類的環境範圍更廣嗎?
在回答這一問題時,我們必須認識到人類的潛意識和意識體驗不僅僅由感官輸入決定。例如,想象當我們躺在一個浮箱中,盡管我們缺乏正常的感官體驗,但我們仍然具有意識。這裏強調了一個概念,即環境預設了一種固有的主觀視角,也就是說,要從一個主體出發。同樣,可供性取決于主體的内部性質,特别是主體的動機和目标。這意味着僅僅通過環境(LLM 的輸入數據)還不能夠産生意識。因此,簡單地向人工智能系統輸入大量數據流并不能夠使智能系統自身産生意識。
這一觀點可能會促使我們重新思考意識科學中的一些基本假設。具體來說,随着人工智能系統逐步表現出越來越複雜的能力,研究者将不得不重新評估某些意識理論所提出的更基本的自我和與智能體相關的過程對于意識出現的必要性。
意識的 " 整合 "
目前,學界已有許多關于意識的神經相關性研究,其中關于意識處理的神經環路有許多不同的理論。一些強調,意識是由密集的、高度連接的丘腦 - 皮質網絡支撐的。丘腦 - 皮質網絡包括皮質區域、皮質 - 皮質連接以及高級丘腦核團向皮質區域的發散投射。丘腦 - 皮質系統的這種特定結構支持循環和複雜的思想處理,這些思想處理是意識和意識整合的基礎(即,盡管意識産生于不同的大腦區域,但意識是統一的)。然而,不同理論對實現意識整合的方式持有不同觀點。
根據全局神經元工作空間理論(global neuronal workspace theory, GNW),意識依賴于由分布式額頂葉皮質系統構成的中央工作空間。這個工作空間整合了來自局部皮質處理器的信息,然後在全局範圍内将其傳遞給所有的皮質局部處理器,全局傳遞将有意識和無意識過程區分開來。其它意識理論認爲,意識整合是由其它神經過程來實現的。例如,神經元樹突整合理論(dendritic integration theory, DIT)表明,意識整合是通過不同皮質區域之間的高頻同步現象産生的,根據所涉及的皮質區域不同,這一現象可能涉及包括感知、認知或運動規劃等在内的不同功能。
▷圖 2:基于神經元樹突整合理論(DIT)的意識整合的神經結構 圖源:Trends in Neurosciences
圖注:在 DIT 理論(圖 2)中,研究人員認爲全局意識整合同樣取決于皮質第五層錐體神經元的局部整合,這種神經元是一種在丘腦 - 皮質和皮質環路中都占據中心地位的大型興奮性神經元。這類神經元有兩個主要結構(圖 2,橙色和紅色圓柱體),分别處理完全不同類型的信息:基底結構(紅色)處理外部基本信息,而頂端結構(橙色)處理内部生成的信息。根據 DIT 理論,在意識狀态下,這兩個結構相互耦合,允許信息通過丘腦 - 皮質和皮質 - 皮質環路流動,從而實現全系統信息的整合和意識産生。
值得注意的是,當今 LLM 和其他人工智能系統的架構都缺乏這些理論所強調的特征:現有 LLM 既沒有等效的雙結構錐體神經元,也沒有集中的丘腦架構、全局工作空間或上升覺醒系統的多個特點。換句話說,現有人工智能系統缺少目前神經科學界所認爲的支撐意識産生的大腦特征。盡管哺乳動物的大腦不是唯一能夠支撐意識産生的結構,但來自神經生物學的證據表明,哺乳動物意識的形成是由非常具體的結構原理(即整合神經元和激發神經元之間的簡單連接)所決定的。從拓撲結構上講,現有人工智能系統的結構極其簡單,這也是我們不認爲現有人工智能系統具有現象意識的原因之一。
那麽,未來的 AI 模型是否最終能夠将許多意識理論視爲核心的 " 整合 " 過程融入其中呢?針對這一問題,GNW 理論所提出的 " 集成 " 概念提供了一個相對簡單的實現方式。實際上,一些最近的人工智能系統已經融入了類似于由本地處理器共享的全局工作空間。由于全局傳遞的計算過程可以在人工智能系統中實現,因此根據該理論,采用該計算方式的人工智能系統将包含潛在意識的核心成分。
然而,如前所述,并不是所有的意識理論都認同這種整合方式就是意識産生的關鍵。例如,意識的整合信息理論認爲,在典型的現代計算機上實現的基于軟件的人工智能系統不可能具有意識,因爲現代計算機沒有适當的架構實現充分集成信息所需的因果推理能力。因此,我們将考慮第三種可能性,即意識在原則上是可以實現的,但它可能需要超出當前(也許是未來)人工智能系統的計算特異性水平。
意識是一個複雜的生物學過程
意識的産生不僅依賴于系統的架構。例如,當我們處于深度睡眠或麻醉狀态時,丘腦 - 皮質系統的結構沒有發生變化,但意識卻消失了。即使在深度睡眠中,主要感覺區域的局部神經反應和伽馬帶活動也與有意識狀态相似。這表明,意識依賴于特定的神經過程,但在有意識和無意識的大腦中這些神經過程是不同的。
爲了闡明有意識與無意識處理之間的細節差異,讓我們先回過頭來看神經元樹突整合理論(DIT)。DIT 理論包含了與有意識和無意識處理的神經過程相關的一些神經生物學方面細微的差别。DIT 理論提出,有意識和無意識處理之間的關鍵區别在于錐體細胞的兩個區室結構的整合(圖 2)。如前所述,在有意識處理期間,這兩個結構相互作用,從而使整個丘腦 - 皮質系統能夠處理和整合複雜的信息。然而,在麻醉狀态下,各種麻醉劑導緻椎體神經元兩個結構之間的功能解耦。換句話說,這些椎體神經元雖然在解剖學上是完整的,可以激發動作電位,但其樹突整合能力在生理上受到嚴重限制,即自上而下的反饋信息不能影響處理過程。研究表明,這種樹突耦合是由代謝型受體控制的,然而在計算模型和人工神經網絡中該結構經常被忽視。此外,研究表明,在這種情況下,高級丘腦核團控制這種代謝型受體的活性。因此,特定的神經生物學過程可能負責在大腦中 " 開啓 " 和 " 關閉 " 意識。這表明,哺乳動物大腦中經驗的質量與其産生意識的潛在過程有着錯綜複雜的關系。
盡管這些理論依據足以令人信服,幾乎可以肯定的是,和距離完全理解意識産生的神經過程的複雜性相比,這些知識仍然稍顯蒼白。我們目前對意識的解釋依賴于全球工作空間、整合信息、循環處理、樹突整合等理論,但真實意識産生的生物過程可能比當前這些理論所理解的要複雜得多。甚至很有可能目前用于構建意識研究讨論的抽象計算級思想可能完全沒有考慮到解釋意識所需的必要計算細節。
換言之,生物學是複雜的,我們目前對生物計算的理解是有限的(圖 3),因此也許我們缺乏正确的數學和實驗工具來理解意識。
爲了更好的理解生物複雜性,需要強調上文描述的細胞和系統層面發生的生物過程必須發生于一個生物活體中,二者不可分割。活體生物不同于當今的機器和人工智能算法,因爲它們能夠在不同處理層次不斷地進行自我維護。此外,生命系統有着多方面的進化和發展曆史,它們的存在取決于它們在多個組織層面上的活動。意識與生命系統的組織有着錯綜複雜的聯系。然而,值得注意的是,當今的計算機并不能夠體現生命系統的這種組織複雜性(即系統的不同層次之間的相互作用)。這表明,現代人工智能算法沒有任何組織層次上的約束,也無法像一個生命系統一樣有效地工作。這意味着隻要人工智能是基于軟件的,它就可能不适合具有意識和智能。
生物複雜性的概念在細胞水平上也能夠體現。生物神經元不隻是一個可以用幾行代碼完全捕捉的抽象實體。相反,生物神經元具有多層次的組織,并依賴于神經元内部複雜的生物物理過程的進一步級聯。以 " 克雷布斯循環 " 爲例,它是細胞呼吸的基礎,是維持細胞穩态的關鍵過程。細胞呼吸是一個關鍵的生物過程,使細胞能夠将有機分子中儲存的能量轉化爲細胞可以利用的能量形式。然而,這個過程不能被 " 壓縮 " 到軟件中,因爲像細胞呼吸這樣的生物物理過程需要基于真實的物理分子。當然,這也不意味着意識需要 " 克雷布斯循環 ",而是強調理解意識的過程中可能涉及類似的挑戰,即也許意識并不能從底層機制中被抽離出來。
然而,我們并不完全贊同意識根本無法由智能系統産生的說法,但卻必須考慮意識與生命背後複雜的生物組織之間的相關性,捕捉意識本質的計算類型可能比我們目前理論所理解的要複雜得多(圖 3)。對意識進行 " 活體組織檢查 " 并将其從組織中移除幾乎是不可能的。這一觀點與目前許多有關意識的理論相矛盾,這些理論認爲意識可以在抽象的計算層面上産生。現在,這一假設需要根據現代人工智能系統進行更新了:爲了充分理解意識,我們不能忽視在生命系統中觀察到的跨尺度的相互依賴性和組織複雜性。
盡管人工智能系統在網絡計算層面模仿了它們的生物對應物,但在這些系統中,已經抽象掉了生物過程中所有其他層面的處理,這些處理在大腦中與意識有着緊密的因果關系,因此,現有人工智能系統可能已經抽象掉了意識本身。這樣一來,LLM 和未來的人工智能系統可能将被困在無止境的模拟意識特征,但卻沒有任何現象意識可言。如果意識的确與這些其他層次的處理有關,或者與它們在不同尺度之間的相互作用有關,那麽我們離機器産生意識的可能性還很遠。
總結
在這裏,我們從神經科學的角度對 LLM 和未來的人工智能系統中意識的可能性進行了探讨。盡管 LLM 頗具吸引力,但它們并不具有意識,并且不會在未來較短的時間裏具有意識。
首先,我們說明了哺乳動物的環境(它們可以感知的外部世界的 " 一小部分 ")與 LLM 高度貧乏和有限的環境之間的巨大差異。其次,我們認爲,LLM 的拓撲結構雖然非常複雜,但在經驗上與哺乳動物意識相關環路的神經生物學細節有很大不同,因此沒有充分的理由認爲 LLM 能夠産生現象意識(圖 1)。目前我們還不可能将意識從生物組織複雜性中抽象出來,這種組織複雜性是生命系統固有的,但顯然在人工智能系統中卻并不存在。總的來說,以上三個關鍵點使得 LLM 在目前的形式下不可能具有意識。它們僅模仿了用來描述意識體驗豐富性的人類自然語言交流的特征。
通過本文,我們希望所提出的觀點能夠産生一些積極的影響與思考(見尚未解決的追問),并不僅代表一種反對意見。首先,目前對 LLM 的感知能力在倫理層面潛在的擔憂更多是假設的而非真實的。此外,我們相信,對 LLM 和哺乳動物大腦拓撲結構的異同的深入理解,能夠推進機器學習和神經科學的進步。我們也希望通過模仿大腦組織的特征和學習簡單的分布式系統如何處理複雜的信息流來推動機器學習和神經科學界的進展。出于這些原因,我們樂觀地認爲,人工智能研究人員和神經科學家之間未來的合作能夠促進對意識更加深入的理解。
尚未解決的追問:
1. LLM 和人工智能中的意識評估通常依賴于基于語言的測試來檢測意識。是否有可能僅基于語言(即文本)來評估意識 ? 是否有更進一步的評判特征可以幫助判斷人工系統是否具有意識 ?
2. 哺乳動物意識的神經基礎與丘腦 - 皮質系統有關。如何在人工智能中實現丘腦 - 皮質系統 ? 哪些特定的功能和任務将受益于類似丘腦 - 皮質的系統 ?
3. 上升覺醒系統在生物體意識産生方面也起着至關重要的作用,其在神經動力學的塑造方面發揮着複雜的、多方面的作用。人工智能需要在多大程度上模仿這些不同的過程,才能獲得上升覺醒系統的計算優勢 ?
4. 生物細節可以增強人工智能系統的能力嗎 ? 除了丘腦 - 皮質系統外,樹突在本文讨論的一些意識理論中起着關鍵作用。樹突隻是增加生物神經網絡計算複雜性 / 效率的一個因素,還是還有更多作用 ?
5. 生命系統的組織複雜性與意識有關嗎 ? 生命系統由不同層次的處理過程組成,這些過程相互作用。生命系統的組織複雜性能否得到更完整詳細的解釋 ? 是否需要新的數學框架來處理這樣的系統,以更多地闡明意識意識産生的生物過程?
6. 一些理論表明,意識和能動性是密不可分的。要理解意識是如何從生物活動中産生的,需要先理解能動性嗎 ?
原文鏈接
Aru, J., Larkum, M.E. and Shine, J.M. ( 2023b ) ‘ The feasibility of artificial consciousness through the lens of neuroscience ’ , Trends in Neurosciences [ Preprint ] . doi:10.1016/j.tins.2023.09.009.