圖片來源 @視覺中國
文 | 腦極體
人機共生,是科幻作品永恒的主題。其中,《冥王 PLUTO》可能是最早探讨人類與機器人如何在沖突中共存的漫畫作品。
如果說阿童木是人機共生的 " 和平使者 ",啓蒙了幾代人對機器人的信任和熱愛 , 那麽冥王 PLUTO 就是阿童木的反面,一個心懷仇恨的殺戮機器。在《鐵臂阿童木》的番外篇《地上最大機器人》中,名叫冥王 PLUTO 的超級機器人,要挑戰阿童木在内的全球七大機器人。
這個故事,後來被浦澤直樹進一步改編,以更大篇幅和筆墨,描畫了人機共存的種種矛盾沖突。
最近,冥王 PLUTO 的故事被奈飛搬上了屏幕,動畫《冥王 PLUTO》上線即爆款,豆瓣開分 9.1,IMDb 開分 9.3,口碑如潮。
雖然這部動畫的主題,是老生常談的 " 人機共生 ",但在 2023 年觀看,卻别有一番滋味。
這一年,大模型的 " 智能湧現 " 展現出了類人級别的推理能力,具身智能讓科幻電影中的人機共存加速到來,AGI 的實現也不再是遙不可及。
與此同時,大模型和 AGI 所暴露出的沖擊和危險,也漸漸浮出水面。有畫師們聯名反對 AI 學習自己的作品,OpenAI 政變原因之一就是科學家對 "AI 失控 " 的擔憂,而中美 AI 競争也掀起了一輪輪博弈。
也别忘了更大的世界,很多地區正在陷入動畫《冥王 PLUTO》中中東戰争類似的戰火陰霾之中。
我們所在的現實世界,正在不知不覺地跨越奇點。在不遠的未來,人機共生會是一幅怎樣的畫面呢?AI 會像冥王 PLUTO 一樣被用來殺人嗎?我們是否做好了準備,去迎接一群 " 十萬馬力 " 的超級智能機器人呢?
不妨帶着童年看阿童木動畫片一樣的好奇心,和我們一起開開腦洞吧。
殺戮機器覺醒?又一次 " 狼來了 "
避免劇透,一句話給大家總結一下動畫《冥王 PLUTO》的劇情——機器人在宇宙的中心呼喚愛。
在人類和機器人共同生活的未來,機器人擁有了和人一樣的感情和思維能力,可以與人建立幸福的家庭。而數次離奇的謀殺,掀開了人機共存的隐藏矛盾:機器人産生了仇恨的情緒,于是憤怒地舉起了槍……
看到這裏,你是不是覺得這故事好熟悉?
(《冥王 PLUTO》動畫截圖)
有大量科幻作品都是這樣的:遙遠的 3xxx 年,人類社會的科技水平高度發展,人工智能無處不在,某一天機器人像《西部世界》中德洛麗絲那樣意識覺醒,發現人類對自己各種欺壓,于是開始抗争和複仇。
機器人意識覺醒,成爲人類不可掌控的威脅,幾乎是所有 " 科技鬼故事 " 的必備設定。不過,冥王 PLUTO 不過是又一次 " 狼來了 "。
首先,即使實現了 AGI 強人工智能,智商和意識也不是一碼事。在很長一段時間内,智能機器依然隻能通過聲音、面部表情、姿态等,模拟人類的情感表達,并不是真的擁有情感體驗。更何況,我們距離強人工智能還有不短的距離,最近一項針對 GPT-4 的圖靈測試中,得分遠不及人類。對 " 機器意識覺醒 " 的恐懼,不過是又一場 " 恐怖谷效應 "。
其次,萬一的萬一,機器人真的産生了意識,就一定會是惡的嗎?顯然不是。正如阿童木和冥王 PLUTO 是兩個對立陣營,機器人的行爲特征也分 " 善 " 和 " 惡 "。憑借今天我們對 AI 技術的了解,以及目前人類和機器人的關系,恐怕機器人并不會感到 " 被人類威脅 " 吧,自然也就不太可能成爲什麽人類殺手或機器人反叛軍團之類的。正如《流浪地球 2》《冥王 PLUTO》等最新科幻作品中,機器人的威脅大多源于網絡漏洞、人類的惡意操作,以及算法爲了讓人類延續下去計算出來的結果 " 好心辦壞事 "。
每當能力卓絕的智能體問世,比如 ChatGPT,關于機器 " 超智能 " 的神話就會出現秀智商,叫賣 " 機器智能會超過人類智能 "" 機器會取代人類 " 之類的觀點。顯然,這些觀點都是站不住腳的,再強大的機器也不足以戰勝人類的智慧。
隻不過,人們總是喜歡相信驚心動魄的故事以及想象中的危險。換個角度想,這種對危險的敏感本能,或許就刻在人類野外求生的 DNA 中。所以,從 " 狼來了 " 到 " 殺戮機器覺醒 ",這種故事始終會讓人樂此不疲,換個主角就能重來。
被掩蓋的真問題,高度共生的社會危機
當人們都在熱議智能機器覺醒的假象風險,也許把真正的危險掩蓋住了,而這些真正的風險,才是人機共生的問題所在。
大模型的到來,正在讓機器從自動化系統發展成爲高度自主系統。
所謂自動化系統,類似掃地機器人、恒溫控制器,隻需要在可控的環境下,根據固定的目标,執行設定好的任務。而家政機器人、自動駕駛汽車等具身智能,顯然就沒這麽簡單了。它們需要在動态變化的物理環境下,準确及時地檢測到障礙物,并實時做出恰當的決策和相應的行動,這些高度自治的自主系統,顯示出了與人類相似的智能。大模型正在讓自主系統的具身智能,變成現實。
聽起來很美好,但這個人類和自主系統共生的未來,可能存在安全隐患:
1. 算法黑箱。AI 擁有 " 暗知識 ",無需借助理論或數學分析,就可以做出決策,在地震預測、天氣預測等方面做得比人類專家更好。但 AI 并不是真的理解了背後的科學原理和數學模型,如果關鍵系統不可靠,在生産環節就難以保證安全。比如設計一架飛機的自動駕駛系統,使用數學模型是白盒的,可以很有把握符合安全标準,而算法的黑箱性不能保證足夠的安全可靠。
2. 失業問題。自動化程度越高,機器人使用越普遍,失業率就越高。不是所有馬車夫都能學會開汽車,許多被自主系統替代的工作崗位是不會再回來的,而需要創造力、難以被 AI 替代的職業,比如編程、藝術創作,隻能爲少數人提供工作機會。職業結構的變遷,一定會帶來失業陣痛,同時阻礙 AI 産業的發展。這一年來大量畫師對 AIGC 的反對和抗拒,就是明證。
3. 技術依賴。對于大部分人來說,AI 應用和機器人的到來,一定會讓生活變得更加舒适。比如自動配送外賣車、酒店服務機器人,就大大減少了人工勞動。ChatGPT 幫助學生們做作業、寫論文。這也意味着,人類會逐漸喪失某些技能。比如唐詩宋詞,未來的孩子可能再也不需要背誦它們了,機器人将東西無微不至地送到手邊,人的日常活動量也随之減少,帶來肥胖等隐患。随着算法預測越來越精準,我們會逐漸依賴 AI 做決策,而不是傾聽身邊普通人的建議和自己的感受與直覺,而決策-行動-反饋的整個正向機制,也被打斷了,讓人越來越缺乏自信。人機共存就是 " 溫水煮青蛙 ",對技術的過度依賴,并非杞人憂天。
4. 政治沖突。還有一種潛在威脅,來自各國政府和企業組織的猜忌與博弈。對智能技術的管控已經是一個政治問題了,而智能技術爲核心的科技競賽,正在掀起類似冷戰時期的政治博弈。
《紐約客》雜志 2023 年 11 月 20 日出版的一篇文章《Why the Godfather of A.I. Fears What He ’ s Built》(人工智能教父爲何害怕自己的成果)中,圖靈獎得主傑弗裏 · 辛頓(Geoffrey Hinton)直言:" 我們不知道人工智能會變成什麽樣子。" 但當記者問:" 爲什麽不直接拔掉插頭呢?" 辛頓回答:" 因爲不同國家之間的競争。" 而此前,他曾拒絕簽署一份呼籲暫停研究人工智能至少 6 個月的請願書,并表示:" 中國可不會停止研發 6 個月 "。有理由相信,出于政治博弈的考慮,某些政府、企業或科學家,會對人工智能的風險,幹脆放任自流。
從人類自治邁向機器自治的人機共生社會,運行機制都要随之變化。或許不會直接導緻殺害等災難,但對就業、文化、政治秩序的沖擊,同樣會産生安全隐患。
從此刻,掀開 " 潘多拉魔盒 "
你可能會問,既然發現了真正的風險,是不是就能提前做出防範,減少人機共生的摩擦?
從技術層面和社會層面,這個願望都不太現實。
技術層面,AI 不同于人類曆史上任何技術風險的。作爲一種自主學習、自主進化的算法,AI 需要不斷咀嚼大量數據,進行複雜的内部轉換和 " 無監督學習 ",其中的規律和隐秘 Bug 可能都不是人類工程師能及時捕捉到的。我們經常聽到程序員講一個段子:如果一段程序能跑能 work,那就千萬不要動它,不要想清理 " 屎山 "。所以,人類未必能夠将 AI 成長捏在自己的手心裏。就像一年之前,誰能想到 ChatGPT 會 " 智能湧現 ",并讓整個世界天翻地覆呢?
社會層面,目前主流國家應對危機的方法,往往不是 " 事前預防 ",而是 " 動态平衡 "。事前預防,需要提前對 " 最壞情況 " 做出評估,然後進行防禦性投入,成本是非常高的,一般隻會在醫療、自然災害、戰争等方面采用。而強人工智能的風險,危急程度并不算高,甚至有人調侃 " 關鍵時候把 AI 電源拔了 ",所以這種危機的防範就要考慮成本收益比,不會犧牲收益最大化,追求絕對安全,而是在經濟和安全之間,尋找一個動态平衡點。而這種 " 動态平衡 " 的問題,則會讓一些脆弱群體,置身于較大的風險之中,比如重複勞動的工人、底層白領、簡單知識生産者等,面臨被取代的壓力。
大模型這條 AI 之路,正在掀開 AGI 強人工智能的 " 潘多拉魔盒 ",會放出冥王 PLUTO 還是阿童木,抑或兼而有之,還是未知數。
既然人類和機器人高度融合共生的社會必然會到來,我們又該依靠什麽保持樂觀和信心呢?我想,《冥王 PLUTO》或許已經給出了答案,那就是 " 愛 "。
人性的種子,會頑強地在戰火和焦土中萌芽,一次又一次重建新世界。