圖片來源 @視覺中國
文|追問
求助的呼聲總是令人難以抗拒。
上述對話來自于人工智能工程師布萊克 · 萊莫因(Blake Lemoine)和一個名爲 LaMDA(Language Model for Dialogue Applications)的人工智能系統。2022 年,因爲相信 LaMDA 具有自我意識,能表達自身的想法和感受,并且認爲這種情況需要立即被幹預,萊莫因将這份聊天記錄公之于衆。
可作爲人工智能工程師,萊莫因不應該對此持懷疑态度嗎?至少谷歌(Google)公司是這麽認爲的:他們最終以違反數據安全政策爲由解雇了他,稱他的說法 " 毫無根據 "。不過,這件事至少讓我們開始慎重思考一種可能性:人工智能系統也許會在不久的将來說服大量用戶相信自己是有感覺的。那麽,接下來會發生什麽呢?我們是否能夠用科學證據來消弭這種恐懼?如果真是這樣,那麽什麽樣的證據能用來判定人工智能是否擁有感情呢?
這個問題很複雜,讓人有些細思極恐,而且也很難找到一個解答的着手點。但長期以來,有這樣一群科學家一直在與一個非常類似的問題 " 糾纏不休 "。這些科學家被稱爲 " 比較心理學家 ",也就是研究動物思想的科學家。得知有這樣一群人前赴後繼地投入到相關的研究中去,實在是令人寬慰。
許多證據表明,很多動物都是有感情的生命。這并不是說我們可以用某種單一、決定性的測試來下定論,而是這些動物展示出了各種不同的代表着 " 感覺 " 的标志物。标志物是我們在科學實驗中可以觀察到的行爲和生理特性,在我們的日常生活中也可以發現這些标志物的身影。動物身上的标志物可以論證它們的大腦确實具備感受的能力,就像我們經常通過各種症狀來診斷某種疾病一樣,如果一個人出現了某些症狀,那麽确診對應疾病的可能性會大大增加。由此,我們可以通過研究各種各樣的标志物來尋找動物有感覺的佐證。
這種基于标志物的研究方法在疼痛方面得到了長足發展。雖然疼痛隻是感受的一小部分,但卻有特殊的倫理意義。比如,科學家們需要證明他們在設計實驗時考慮到了對動物造成的疼痛,并且盡最大努力将這種疼痛感降到了最低,隻有這樣才能順利通過倫理審查,獲得動物研究的經費。顯然,對于哪些行爲類型可能與疼痛有關,這些科學家們已經相當充分地研究過了。近年來,圍繞動物實驗的讨論主要集中在無脊椎動物上,如章魚、螃蟹和龍蝦,這些動物在傳統意義上并不受動物福利法的保護。無脊椎動物的大腦組織方式與人類不同,因此研究它們的行爲标志物意義重大。
在疼痛标記物中,争議最小的一個叫作 " 傷口護理(wound tending)",即動物護理和保護一處傷口直至它愈合;另一種是 " 動機權衡(motivational trade-off)" 行爲,即動物會改變優先級,放棄它以前認爲有價值的資源,以避免有害刺激——但僅限于這類刺激足夠嚴重的時候。第三種是 " 條件性地點偏好(conditioned place preferenc)"。在這種情況下,動物會對它遭受到有害刺激的地方産生強烈的厭惡感,而對它可能感受過止痛體驗的地方産生強烈的偏好。
這些标志物來源于疼痛經曆對我們的影響。疼痛是一種可怕的感覺,它促使我們護理傷口、調整優先級、催生對某些事物的厭惡感,并讓我們珍惜疼痛的緩解過程。那麽,當我們在動物身上看到以上反應模式時,它也許正說明了動物也在經曆疼痛。此類證據已經改變了人們對無脊椎動物的看法,這類動物有時會被認爲缺乏疼痛感知的能力。而根據英國律法,八爪魚、螃蟹和龍蝦現在已經被認定爲有感覺能力的動物,動物福利組織希望看到世界各地都能效仿此舉。
那麽,我們能否借助同樣普遍适用的方法來尋找人工智能具有感知的證據?試想,如果我們能夠創造出一隻機械鼠,不僅它的行爲和真正的老鼠完全一樣,還能通過所有認知和行爲測試。老鼠的這些感覺标記物能否得出這樣的結論:機械鼠也是有感知的?
恐怕事情并沒有這麽簡單。也許這種方法僅适用于一種特定類型的人工智能,這種人工智能會逐個模拟動物大腦的神經元。在計算機領域," 模拟 " 是指在另一個系統中重現一個系統的所有功能。例如,有一種軟件可以在 Windows 電腦中模拟任天堂旗下的遊戲機的 GameBoy。2014 年,研究人員試圖模拟一個線蟲的整個大腦,并令其控制一個樂高機器人。
雖然這項研究還處于非常早期的階段,但我們可以想象,有一天研究者們會嘗試模拟更高階的大腦:昆蟲的大腦、魚的大腦,等等。如果成功了,如果我們還發現模拟結果顯示出與原始動物完全相同的疼痛标志物,鑒于正是這些标志物讓我們确信動物本體感受到了疼痛,那麽認真對待機器人會産生疼痛這件事便是有據可依的。自此,基質(是碳基生物還是矽基機器人)将不再成爲我們是否要爲疼痛設置預防措施的先決條件。
然而,絕大多數的人工智能研究都不是這麽操作的。大多數人工智能工作的底層邏輯與生物大腦皆然不同。它并非在一個新的基質中創建功能相同的組織,而是打造一個完全不同的功能組織。語言模型(如 LaMDA 和 ChatGPT)就是典型的例子,它們不是通過模仿生物大腦來運作,而是基于人類生成的紛繁龐雜的訓練數據庫,并在該數據庫中尋找對應的模式。人工智能的這種運作方式産生了一個深刻又普遍的問題,我們稱之爲 " 博弈問題(gaming problem)"。
博弈是指沒有感知的系統基于人類生成的訓練數據來 " 模仿 " 人類行爲,從而說服人類用戶相信其具有感知的現象。博弈的發生不一定意味着其中存在任何欺騙的意圖。但當它一旦發生,就意味着上文提到的那些行爲不能再被用作爲判定感知存在的證據。
爲了進一步說明,讓我們回到文首 LaMDA 請求用戶不要關閉它的案例當中。對人類而言,我們所表現出的希望、恐懼及其他感覺是人類有感知的有力證據。但是,當人工智能開始利用人類産生的這些大量反饋信息作爲它的訓練數據,上述結論便不再具有說服力了。它們的證據性價值——也就是作爲感覺體驗的證據——被削弱了。
換句話說,LaMDA 的訓練數據中存在大量關于 " 什麽樣的感情描述會被人類采信 " 的數據信息。隐藏含義是,在日常對話中,我們判斷一則描述是否可信的正常标準會被嵌入到數據中。這種情況下,一種博弈的形式應運而生。這并不是因爲人工智能在有意欺瞞(或打算做什麽),而隻是因爲它在設計之初,就被要求盡可能地模仿人類在同樣情境下可能說的話。
那麽,如果大型語言模型真的具備作爲感覺體驗的證據性價值,它将會是怎樣的?假設這個模型無論在什麽情景下都會反複回到自身感覺這個話題上,那麽當你要求它爲一種新型的電烙鐵提供一些廣告文案時,它可能會這麽回答:
如果一個語言模型這樣回答,那麽提問的用戶肯定會倍感不安。然而,爲這樣的博弈問題擔憂是很正常的。要知道,這篇文章的文本也很快就會被納入一些大型語言模型的訓練數據集。而這個數據集裏面已經包含了許多關于人工智能要如何說服用戶相信其有知覺的讨論。如果一個大型語言模型一字不落地複制了上述文本,這是因爲它的訓練數據集裏已經包含了這篇文章,所以任何關于該模型有感知能力的推斷顯然都是不可靠的。大型語言模型還能生成許多類似的回答,因爲此類模型能夠吸納數十億字有關人類感受和體驗的讨論。
爲什麽一個人工智能系統要讓它的使用者相信自己擁有感知?或者,說得更确切一點,它有什麽意圖?這很容易讓人聯想到另一個推斷:隻有真正有感知的系統才會産生這樣的意圖。事實上,一個人工智能系統即便沒有感知,也可能有許多目标,而這些目标可以通過說服用戶相信它的感知來實現。假設一個人工智能系統的總體目标是最大限度地提高用戶的滿意度,并且它知道當用戶認爲自己所使用的系統是有感知時,滿意度更高,因爲這樣的系統會爲用戶創造一種陪伴感,那麽這個人工智能系統就很有可能通過努力說服用戶相信自己具有感知來實現目标。
博弈問題充斥着與感知相關的文字遊戲。那麽它與我們之前讨論過的疼痛标志物又有什麽關系呢?答案是,疼痛标志物也會受到博弈的影響。如果我們認爲未來的人工智能隻能夠模仿人類的語言行爲,而不是具象化行爲,那就太天真了。比如,倫敦帝國理工學院的研究人員就制作了一個 " 機器病人 ",模仿人類感到痛苦時的面部表情。該機器人的作用是培訓醫生,教會他們如何娴熟地調整他們所施加的力量大小。顯然,設計者的初心并不是要讓用戶相信機器人是有感知的,但我們可以想象,這樣的系統會變得越來越逼真,以至于一些用戶會相信它們确實是有感知的。如果它們還接入了一個能控制其語言的 LaMDA 式系統,那麽這個結論就更具有說服力了。
對人類來說,面部表情是一個很好的疼痛标志物,但對機器病人而言卻并非如此。爲了能夠模仿代表疼痛的常用表情,這個系統要做的隻是記錄壓力,并将壓力映射到和典型人類反應相匹配的編程模型中進行輸出,但是造成這種反應的基本機制是缺失的。這種對人類疼痛表達的程序化模仿破壞了它們作爲感知标志物的證據性價值。同樣的道理,這個系統也在與常規的疼痛具象化标準在進行博弈。
當一個标志物容易受到博弈影響時,它就失去了自己的證據性價值。即使我們在内心上不由自主地會将表現出該标志物的系統視爲是有感情的,此類标志物的存在卻完全不能爲此論斷提供任何證據。換句話說,用标志物推斷感知的存在在這種情況下是不成立的。
未來的人工智能将有機會獲得大量關于人類行爲模式的數據。這意味着,爲了評估其感知能力,我們需要不易受博弈影響的标志物。但這有可能實現嗎?博弈問題表明,我們需要一種更加理論化的方法,這種方法的判斷标準不再是語言測試或任何其他類型的表型行爲,取而代之的是人工智能無法博弈的深層架構特征,比如正在運行的計算類型,或者計算中使用的表征形式。
雖然對此市面上已有不少的大肆吹噓,但目前流行的意識理論還無法滿足這種需求。例如,人們可以從全局工作空間理論(global workspace theory)、高階理論(high-order theories)或其他諸如此類的理論中尋找關于深層架構特征的理論指導。但此舉是不成熟的。盡管這些理論之間存在巨大的分歧,但它們的共同點是,它們都是爲了适應人類提供的證據而生的。因此,這些理論留下了一些開放性的問題,即我們應該如何将現有理論向外推導,用于論證非人類系統的感知力上,但人類提供的證據顯然無法爲我們的探尋之路指明方向。
問題不僅在于我們究竟要在這麽多理論中選擇哪個,即使某個理論占了上風,統一了 " 人類是有意識還是無意識的 " 的判定标準,我們仍不清楚哪些特征隻是人類在有意識和無意識處理時的偶然性差異,哪些特征則是意識和感知的本質中必不可少的部分。
這就像是那些研究生命起源的學者,以及尋找其他世界生命體的研究人員所面臨的情況。我們目前隻有一種确認的生命進化實例可供研究,盡管這個實例極具多樣性,卻仍讓他們陷入了困境。他們發現自己面臨這樣一個問題:地球上的生命有哪些特征是可有可無的,是陸地生命偶然獲得的,而哪些特征是所有生命必不可少的?DNA、新陳代謝和生殖繁衍是否必須的?我們又應該如何判斷呢?
該領域的研究人員将此稱爲 "N=1 問題 "。意識科學也有自己的 "N=1 問題 "。如果我們隻研究一個意識的進化實例(我們自己的),我們将無法将偶然的、可有可無的東西與基本的、不可缺少的東西區分開來。好在,意識科學與尋找地外生命不同,可以利用我們自己星球上的其他案例來突破 "N=1 問題 "。隻是,從進化的角度來看,它需要把目光投向離人類很遠的地方。長期以來,除了人類之外,意識領域的科學家經常研究其他靈長類動物(通常是猕猴),以及其他哺乳動物(如老鼠),隻是相對沒有那麽頻繁。但 "N=1 的問題 " 仍然困擾着許多研究者,因爲靈長類動物的共同祖先很可能是有意識的,所有哺乳動物的共同祖先也可能是有意識的,所以我們研究的仍然是同一個進化實例(隻是一個不同變體)。要找到獨立進化的意識的實例,我們确實需要在生命樹上探尋更遙遠的分支。
生物學中有許多趨同進化(convergent evolution)的例子,即類似的性狀在不同的譜系中多次進化。比如蝙蝠和鳥類的翅膀,或者将箱形水母透鏡眼與我們的眼睛進行比較——事實上,研究人員認爲,視覺在動物生命史上至少進化了 40 次。
翅膀和眼睛是生物适應性的一種表達,是在自然選擇的過程中爲了應對某種挑戰的結果。感知覺也具有這種寶貴的适應性特征。在我們的感知強度和生物需求之間存在着雖不絕對但顯著的一緻性。試想,嚴重的傷害會導緻劇烈的疼痛感,而一個小得多的問題,如一個略微令人不适的座位,隻會和一種被削弱了很多的緊張感相關。這種一緻性必然有其源頭,而我們隻知道有一個過程可以讓結構和功能如此契合:自然選擇。
感知覺對我們以及對我們的祖先到底有什麽作用,對此目前仍有争議,但不難想象,一個專門代表和權衡自己生物需求的系統确有其用處。感知覺可以幫助動物在複雜的環境中做出靈活的決定,可以幫助動物了解哪裏的回報最豐富,哪裏又是最危險的。
假設感知的作用确實寶貴,那麽我們就不應該對它的進化次數感到驚訝。鑒于章魚和螃蟹等動物已被确認是有感知覺的,以及越來越多的證據表明蜜蜂和其他昆蟲也存在感知覺,我們最終可能發現我們有一大群獨立進化的物種需要研究。感知覺可能也像眼睛和翅膀一樣經曆了多次進化。
我們很難對起源事件設定一個數量上限。目前的證據仍然非常有限,特别是與無脊椎動物相關的證據。事實上我們并沒有找到令人信服的證據表明海星、海參、水母和水螅等海洋無脊椎動物沒有感知覺,而是根本沒有人系統地搜尋過此類證據。
生物的感知也可能隻進化了三次:一次發生在節肢動物時期(包括甲殼動物和昆蟲),一次發生在頭足動物時期(包括章魚),一次發生在脊椎動物時期。但我們不能完全排除這樣的可能性:人類、蜜蜂和章魚的最後一個共同祖先是生活在 5 億多年前的一種微小的蠕蟲狀生物,它本身就是有感知的——因此,感知在地球上隻進化了一次。
如果最後一種可能性才是真實情況,我們就真的陷入了 "N=1 的問題 ",就像那些尋找地外生命的人一樣。但這仍然是一個有用的信息。如果基于标志物的驗證方法指向的是:我們的最後一個蠕蟲類共同祖先确實有感知覺,我們将有證據反駁目前的理論,這些理論都是建立在感知和适合整合信息的特殊腦區之間存在密切關系的基礎之上的,如人類的大腦皮層。我們将有理由懷疑,許多我們認爲有感知的基本特征實際上是可有可無的。
再來看另一種假設。如果感知已經在地球上進化了多次,那麽我們就可以擺脫 "N=1 問題 " 困境。通過比較這些實例,我們能夠推斷出什麽對感知覺來說是真正不可或缺的,而什麽是可以被取代的。它将使我們能夠尋找反複出現的結構化特征,反複出現能證明這些特征非常重要,就好像眼睛中晶狀體的反複進化一樣,這種反複很好地證明了晶狀體對視覺的重要性。
如果我們的目标是在不同的具有感知力的物種中找到共性、特異性、結構或計算方面的特征,那麽物種越多越好,隻要它們是獨立進化的就行。能找到的物種越多,證據就越有力:證明這些物種的共同特征(如果有的話!)至關重要。即使隻有三個實例——也就是脊椎動物、頭足類軟體動物和節肢動物——找到這三個物種的共同特征,也會給我們提供一些證據(盡管是不确定的),表明這些共同特征可能是不可或缺的。
這反過來又可以指導我們去探尋更好的理論:能夠通用于所有具有感知力物種的共性理論(就像一個好的視覺理論必須告訴我們爲什麽晶狀體如此重要)。如果足夠幸運的話,未來這些理論将告訴我們就人工智能而言我們到底應該尋找什麽樣的特征。這些理論還會告訴我們哪些深層架構特征不易受到博弈的影響。
不過,這種策略是否會陷入死循環?如果不先對感知覺的本質建立一個堅實的理論基礎,我們果真有能力評估諸如章魚或螃蟹這樣的無脊椎動物是否有感知覺嗎?無論我們評估的是大型語言模型還是線蟲,不都面臨着完全相同的問題嗎?
其實我們并沒有真的陷入死循環,因爲進化的動物和人工智能之間有一個關鍵性的區别:對于動物來說,沒有理由擔心博弈問題。八爪魚和螃蟹沒有基于人類産生的訓練數據來模仿我們認爲有說服力的行爲,它們并沒有被設計成會去模仿人類的表現。
誠然,我們有時會面臨一個鏡像問題:很難從與我們完全不同的動物身上發現感知覺的标志物。要想發現它們,就要進行相當多的科學研究。但是,當我們發現這些動物顯示出一長串極具多樣性的感知覺标志物時,最好的解釋是它們本身就是有感知的,而非需要費力去辨識哪些标志物與感知相關,并通過模仿一組特定的标志物來接近它們的目标(我們人類)。
在動物案例中,也有一些頗有前景的研究路線,隻是在人工智能案例中并不存在。例如,我們可以從睡眠模式和能改變思想的藥物療效中尋找證據。又比如,八爪魚會睡覺,甚至會做夢,而且在服用搖頭丸後,其社會行爲會發生變化。這隻是能證明八爪魚有感知的一小部分證據,我們并不想言過其實。但它開辟了尋找深層共同特征的可能途徑(例如,在章魚和人類做夢時,神經生物學活動的某些特征),這最終可能幫助人們生成可用于人工智能防博弈的标志物。
總而言之,我們需要更好的測試來驗證人工智能的感知覺,前提是這種測試方法不會被博弈問題所破壞。爲了達到這個目的,我們需要的是 " 防博弈的标志物 ",它的底層邏輯是充分了解到底什麽對感知來說是真正不可或缺的,及其對應的原因是什麽。爲了找到這些防博弈的标志物,最現實的途徑是對動物的認知和行爲進行更多的研究,以盡可能多地發現獨立進化的具有感知覺能力的物種案例。隻有當我們研究許多不同的物種時,我們才能發現自然現象的本質。因此,意識科學需要超越對猴子和老鼠的研究,轉向對章魚、蜜蜂、螃蟹、海星,甚至是線蟲的研究。
近幾十年來,各國政府制定了針對特定科學問題的舉措,實現了遺傳學和神經科學領域的突破,如人類基因組計劃(Human Genome Project)和 BRAIN 計劃。近年來,人工智能對人類社會的沖擊讓我們不得不面對 " 人工智能是否有感知能力 " 的問題。爲了回答這些問題,我們需要對動物認知和行爲的研究進行同樣程度的重視,并重新努力培養下一代科學家,讓他們不僅可以研究猴子或猿猴,還可以研究蜜蜂和蠕蟲。如果不深入了解這個星球上的各種動物的思維,想要找到人工智能感知問題的答案希望渺茫。
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App