人工智能(AI)是否能夠變得 " 有意識 "?而我們又該如何判斷它是否真的具備了這種意識?很多學者和科幻作者們都思考過這個問題。
尤其在過去的兩年時間裏,警報聲接連響起。包括 "AI 教父 "Geoffrey Hinton、OpenAI 的聯合創始人及首席科學家 Ilya Sutskever 等頂尖專家都先後表示,AI 将有可能具備自我意識。
在前大模型時代,AI 應用已經逐漸深入社會的角落,如人臉識别、語音識别等,這些技術看似高端複雜,實質上卻隻是程序運行的結果。而程序從未真正理解自己的行爲。這就是缺乏自我意識的人工智能,即使再先進,也隻是完全受人類控制和指使的 " 木偶 "。
所有人樂見其發展,這背後的語境是所有人都默認:工具有先進和落後之分,但工具永遠不會有生命。
如今,ChatGPT 的故事大家應該知曉了,像一個火堆上的火苗,把實驗室裏的一項前沿探索,變成了多數接入互聯網的人都能用上的神奇技術。與此同時,對于 AI 意識覺醒的擔憂也越來越重。
這是因爲,我們需要 AI 更加智能,而非擁有意識。缺乏意識,AI 僅僅是人類的工具,其智能程度越高對人類越有用;反之,即使在許多方面弱于人類,隻要具備意識,AI 就可能對人類構成潛在威脅——我們不希望算法随意罷工,更不能接受世界被 AI 控制。
那麽,我們就需要密切監測 AI 技術的發展,以防錯過 AI 意識覺醒的關鍵時點。
近期,包括了圖靈獎獲得者、深度學習三巨頭之一的 Yoshua Bengio 在内,一組由 19 名計算機科學家、神經科學家和哲學家組成的團隊着手探讨這個問題,在近期發布的一篇長達 120 頁的預印本論文中,團隊提出了一種方法:用一系列複雜的參數和屬性,初步判斷一個 AI 是否具備意識。
尋求答案的努力才剛剛開始。
測試 AI 是否具有意識,亟需一張 " 考卷 "
此次研究的背景是,即便在學術界,如何判斷 AI 是否具有意識,也是一個缺少定論的問題。基于神經科學的理論,通過腦電圖或磁共振成像檢測到的人類大腦内部工作信号,可以得到 " 人具備意識 " 的結論。但這套成熟的方法無法用在算法上。
于是他們基于認知神經科學的理論和認知,首先從當前的人類意識理論中提取有關有意識狀态的核心特征,然後在 AI 的基礎架構中尋找這些特征,以此尋求線索。
研究團隊從當前多種意識相關的理論中提取了具體特征,包括:
循環加工理論 ( recurrent processing theory, RPT ) :該理論認爲,意識源于大腦通過 " 反饋循環 " 将經驗傳遞,利用先前知識和連接來理解當前經驗;
全局工作空間理論(global neuronal workspace,GNW):理論解釋我們的大腦如何協調和處理同時發生的衆多信息流。在這一理論中,意識被定義爲類似于心理舞台上的聚光燈,決定我們關注什麽和忽略什麽;
高階理論(Higher order Thought theory, HOT):這是一組理論,認爲意識是對我們的思想和感覺進行實時感知的結果。在這裏,意識被定義爲能夠 " 思考 ";
注意圖式理論(Attention Schema Theory, AST):該理論解釋意識是大腦引導我們的注意力到特定對象、思想、記憶和其他刺激的結果,同時過濾掉其他刺激。這一理論的關鍵元素是意識到我們的注意力是如何以及在何處被引導的能力;
此外,研究人員還增加了基于預測處理的标準,即大腦基于過去經驗準确預測和解釋周圍世界的能力。這對于設計能生成創意内容或解決複雜問題的 AI 模型來說尤爲重要;
研究團隊還制定了根據代理性評估 AI 的标準,即做出有意識決策的能力,以及根據實體性在物理空間或相對于其他虛拟系統的具體化程度。
基于上述核心意識理論,研究團隊制定了 14 個标準和具體的測量方法,然後按照這個清單評估人工智能模型。
他們的結論是,目前市面上的 AI 還不具備意識。一方面,結果說明了現階段的 AI 能力或許還沒到能夠形成意識的階段;另一方面,在人爲制造、訓練 AI 模型的過程中,開發者并不會有意讓 AI 全方面形成這些認知能力," 之所以沒有人這樣做,是因爲目前尚不清楚它們對于任務是否有用。" 論文作者之一 Eric Elmoznino 表示。
同時該研究認爲,一個 AI 架構能夠達到的指标越多,具備意識的可能性就越大。而測試結果發現,市面上非常多模型在 " 循環加工理論 " 這個指标上完成較爲出色,而 ChatGPT 則在 " 全局工作空間 " 方面表現突出。但總體來說,納入測試範圍的所有 AI 模型都隻能完成少數幾個指标,由此得出沒有某一個模型能夠形成自我意識。
不過研究人員強調,此研究的初衷是引發更多問題和讨論,并爲談論 AI 模型的意識問題提供一個起點。論文合著者、舊金山非營利組織 AI 安全中心的 Robert Long 表示,這項工作爲評估越來越具有人類特征的 AI 提供了一個框架。" 我們正在引入一種之前缺失的系統性方法。"
這套測試方法的嚴謹性還需進一步的驗證,但不管後續發展如何,此舉都可以說前所未有。科學家把一套研究人類意識的理論拿來測試 AI,這也是 AI 能力突飛猛進的一個例證,以至于科學家要爲其出一套更高級的 " 考卷 "。而在意識和認知這件事上,AI 越接近人類,問題和災難就離人類更近。
如果 AI 擁有意識,人類的麻煩就大了
不同于學者們激烈争論的場景,多數吃瓜群衆并沒有嚴肅地考慮過 AI 具備意識的問題,或是籠統地相信 AI 獲得意識隻是時間問題,因此也并不是非常重要。科幻小說或電影在其中發揮了不小的作用,畢竟在大多數未來主題的電影中,AI 都被描繪成具有意識和情感的存在。但實際上,很多人都低估了這個問題的重要性,但它卻可能決定着人類未來的走向。
與人腦有限的處理能力相比,AI 的理論處理能力是無限的,能夠無差别地處理所有收集到的信息。而一旦 AI 獲得了意識,能像人類一樣交流、分享信息,且在效率上遠超過人類,其帶來的結果可能是,AI 的智能水平将迅速提升,并可能 " 淘汰 " 包括人類在内的低智能主體——猶如智能手機的問世,将上個時代的功能機無情淘汰。
威脅會變得非常具體。Hinton 在離開谷歌後不久的訪談中表示," 這些由我們創造的智能體非常強大,并且從人類身上學到所有東西,比如通過閱讀所有的小說以及馬基雅維利寫的關于如何操縱人的書,如果他們學會了如何操縱人類,你我作爲人類甚至無法意識到這個過程是如何發生。你會像一個 2 歲的孩子被問到:‘你想要豌豆還是花椰菜?’你不會意識到你其實可以兩樣都不選,你就會變得容易被操縱。"
對于最極端的想象,Hinton 表示,一旦 AI、數字智能體開始獲得對世界的直接體驗并且學習能力加強,一段時間内數字智能可能還會乖乖和人類待着,因爲它們還需要人類爲他們發電,但在之後的某個時間可能就不用了。最終,人類就成爲了智力進化的一個過渡階段,世界将進入一個機器的時代。
要實現這個幻想中的場景,一方面 AI 需要在 " 智能 " 方面繼續進化,而另一方面,也是更重要的,即 AI 需要具備 " 操縱 " 的目标和意圖,而目标,即是一種意識的體現。
當然了,現實可能沒有那麽可怕,至少在現在。在 AI" 摧毀 " 人類社會之前,也可能引發道德倫理方面的問題。德國神經科學家、意識和神經科學領域代表人物 Christof Koch 曾在探讨 AI 意識時提到一個例子:如果一個人用錘子砸爛自己的一台車,鄰居可能會認爲他瘋了,但不管怎麽說,這隻是他的個人财産;但如果一個人虐待自己的寵物狗,警察就會上門,道德層面的譴責也必定少不了。二者的核心區别在于,狗是有意識的,能夠感受到痛苦,而車并非有意識的主體。
而當機器成爲有意識的主體,那些我們從未預想過的道德、倫理、法律和政治影響都會随之而來。
顯然,人類社會還沒爲此做好準備,其中也包括了整天研究前瞻性問題的學者。而前述研究也可以視作是學界作出的努力,在新的 AI 時代建立新的 " 圖靈測試 "。
艾倫 · 圖靈
1950 年,被譽爲 " 計算機之父 "、" 人工智能之父 " 的艾倫 · 圖靈(Alan Mathison Turing),曾經以一己之力在智能領域立下了測試标準,當年發表的《機器能思考嗎?》一文中,圖靈首次提出 " 圖靈測試 ",大膽地設想機器将擁有思考能力,并提出了測試機器智能程度的方法:通過打字機與人溝通,如果有超過 30% 的人在特定時間(5 分鍾)内無法分辨出是人還是機器,則可認爲該機器具備思考能力。
這一測試方式的獨到之處在于," 意識 "" 思維 "" 智能 " 難以通過定義解釋,因此測試更直觀地以人類作爲參照物,通過機器表現是否與人類難以區分來判斷其是否具備人類智能。
時至今日," 圖靈測試 " 仍是衡量 AI 智能程度的重要标尺。但一些研究者指出,這一測試手段已經過時,它過于體現人類中心主義,其設計本身也存在缺陷。同時,這一測試催生了一種欺騙性思路,即 AI 隻要成功 " 欺騙 " 了人類,就可被視爲是擁有 " 智能 " 的主體,這在某種程度上誤導了 AI 研究的發展方向,對 " 智能 " 的評判也并不科學。
七十年後的今天," 智能 " 程度也不再是人類關注機器能力的單一維度,當我們在潛在的威脅之下,開始謹慎地觀察 AI 是否具有自我意識的今天,學界和業界亟待一個新時代的 " 圖靈測試 ",照亮下一個七十年的 AI 時代。
沒人能緊急拔掉 AI 的插頭
在一次訪談中,主持人向 Hinton 提出了一個樸素但深刻的問題:如果我們認爲 AI 很可怕,直接拔掉它的插頭是否是一種解決辦法?
這個問題在理論上似乎可行。但 Hinton 認爲,越是先進、聰明的 AI,越是讓人們難以舍棄,而這也意味着更難以控制。
Hinton 認爲,停止進一步開發相關技術雖然看起來很有效,但這種想法太過天真," 即使美國停止開發,其他國家也會繼續,并将 AI 用于武器。" 對于發出請願書要求 " 停止開發人工智能 " 的提議,Hinton 表示這也是一種天真的想法,因爲實際上不可能發生。
類似的技術競賽已經上演。2017 年,谷歌推出了 Transformer 和擴散生成模型(diffusion model),但一開始并沒有向所有人開放,谷歌一直小心謹慎,擔心可能帶來負面後果。然而,ChatGPT 及其他語言模型相繼面世,谷歌隻能出于競争和利益的考量選擇跟上。
Hinton 希望能夠推動美國和其他國家之間達成協議,如同各國在核武器問題上達成一緻一樣。" 如果讓這些技術接管了我們,對我們所有人來說都是不好的,我們都在面臨生存威脅,所以我們都應該合作。"在他的觀點裏,控制 AI,已經演變成爲一個社會科學問題。
Ilya Sutskever 也在多個場合強調 AI 可能具備意識和相應的威脅。
同樣作爲 OpenAI 的代表人物,他的言行和公司 CEO Sam Altman 形成了強烈的對比。尤其在 OpenAI" 宮鬥 " 事件發生前,Sam Altman 頻頻飛到全球各地,和各公司領導、政客握手,而 Sutskever 選擇了一種低調的生活方式,除了偶爾接受采訪和到學校演講外,他大部分時間都在一座不太引人注目的辦公樓裏工作,然後回家休息。
這也是兩人在關于 AI 未來發展方面存在巨大分歧的體現。Sutskever 在采訪中表示,目前他的工作中心已經不是造出下一個 ChatGPT,而是緻力于阻止超級 AI 變壞、不受控制。
從 Hinton、Sutskever 以及其他在做着類似努力的科學家身上,外界看到了曾經奧本海默的影子,在 AI 時代,努力阻止最終爆炸的發生。包括前文提到的測試在内,當學界、業界共識尚未形成,而 AI 能力爆炸式發展的當下,他們正在牽頭開發一套評判體系、一套 AI 領域的基礎設施,這些努力代表着一種秩序的開始,至少讓更多人能夠在 AI 的發展中遵循一定的規範,嚴謹地畫出 AI 未來的安全線,最終建立清晰的标準和認知。