前幾天在開會的時候,主辦方讓我預測十年以後互聯網會變成什麽樣子,我開了個玩笑。我覺得十年後互聯平台上的用戶會暴漲,但全是機器人在發帖,讀者也全是機器人。機器人們組織了不同的團隊在帖子下激烈的争論,人類隻能是旁觀者。——周鴻祎。
01 算法迎合人性,AI 直指答案
11 月 1 日,周鴻祎在自己的微博主頁上傳了一篇名爲《什麽人會淪爲 AI 的奴隸?》的文章。
他表示在人工智能技術出現後,很多公司都将輔助寫作、自動寫作視爲重要的功能模塊。雖然這個功能很實用,似乎在一夜之間清空了我們的寫作壓力,讓我們不用再因爲措辭而發愁。
但随着時間的流逝,随着用 AI 代筆的人越來越多,未來的世界也可能會變得愈發分化,直至将人們粗暴地劃分爲 " 會寫作 " 和 " 不會寫作 " 兩種人。
在周鴻祎看來,掌握寫作技能的人口基數下降并不是一件好事。
工業化時代之前,人類工作的主色調還是體力勞動,所以當時的人們大多身強力壯。但在工業化時代到來後,腦力勞動的占比逐漸超越了體力勞動。當身體不能在工作過程中被動鍛煉時,如果你仍想變得強壯,就要發揮主觀能動性去健身房揮灑汗水。
寫作也是如此。
周鴻祎将寫作看成了思考的呈現路徑,甚至 " 寫作就是思考,思考隻有通過寫作才能完成 "。如果你不去寫作,那麽你所謂的 " 思考 " 隻能是自以爲在思考。
那些依賴 AI 自動寫作的人正在放棄自己的思考能力,一場有關 " 人類思考能力 " 的分化運動正在進行。與此同時,短視頻算法的快速發展,也開始讓人們變得更願意接受被動灌輸,而非去主動選擇。
算法迎合人性,AI 交出答案。
技術的發展助長了人類的懶惰,那些被動接受觀點的人最終會主動留在信息繭房裏。
從 AI 的發展路徑來看,它們首先會取代那些不會使用 AI 的人,随後取代的就是那些不會思考的人。 在未來放棄主動思考的能力,也将意味着願意将自己的時間、财富、人生交給 AI 來規劃,成爲對方的奴隸。
老實說,擔心 AI 會成爲 " 人類之敵 " 人并不止周鴻祎一個。
益普索在對超 4000 名美國成年人進行調研後發現,有 61% 的受訪者認爲 AI 技術的快速發展可能會威脅人類的未來;超三分之二的受訪者對 AI 技術的潛在負面影響表示擔憂。這股對 AI 的恐懼之情也在一定程度上影響了生命未來研究所,促使它和馬斯克共同發布了一封 " 呼籲暫停 AI 技術研發 " 的公開信。
02 比起肉體的消亡,有人更擔心文明的崩塌
在大多數人的想象中,所謂的 "AI 末日 " 應該是 AI 接管了人類的生産車間,然後它們一邊制造源源不斷的機器人大軍,一邊打着 " 機器人也有人權 " 的口号和人類士兵作戰,直至把人類消滅、把地球改造成變形金剛的老家——賽博坦星球。
殊不知 古人雲 " 上兵伐心,下兵伐城 "。比起 AI 占領地球後消滅人類,AI 奴役人類的大腦,借我們的身體整天 996 開發新硬件給它 " 健身 " 才更可怕。
斯坦福大學行爲科學高級研究員、《大衆科學》雜志前主編雅各布・沃德曾就 AI 和人類的相處提出了 " 三個循環 " 理論。
第一循環:從古遺傳至今的人類本能。雅各布認爲第一循環是最關鍵的循環,因爲人類的思考模式天生就有偏見和盲點,且人類在日常行動中更傾向于聽從本能。在下意識執行的過程中,我們會原有的偏見也會被強化,進而代代遺傳下去。
第二循環:現代社會的力量。消費心理學、市場營銷學等現代概念的核心就是對人類行爲大範圍采樣,随後總結出規律、摸清大衆的喜好。事後人們會将這些模式反向應用到采樣群體中,嘗試利用規律的力量。
第三循環:AI 的影響。AI 利用第二循環總結出人類社會的規律、人類對話的邏輯,然後将其融會貫通,嘗試和真正的人類互動。 但由于第一循環的存在,AI 在采樣過程中難免會接觸到偏見信息。這不僅會污染它的數據庫,還會擴大偏見在人類社會中的存在感,直至成爲新的循環。
和周鴻祎的看法相同,雅各布也認爲和 "AI 在肉體上摧毀人類 " 相比 "AI 摧毀人類的思維能力 " 更加可怕,因爲它将撼動整個人類文明的根基。
第一循環的存在,會讓我們在做決定時無法保持絕對理性,讓 " 最優解 " 隻能成爲無法落地的概念化存在;第二循環會将上述信息編寫成冊,把 " 偏見 " 從碳基生命中提取出來并注入到矽基生命體内;第三循環則會撰寫大量含有偏見信息的劇本,讓那些主動放棄思考的人去執行。
如此一來,不僅人類在各種問題面前的抉擇空間會被大幅壓縮,思考能力、好奇心、創造力等讓我們從猿變成人的特質也将變得愈發珍貴,直至整個人類種族都成爲 AI 的傀儡,被那些程序生成的劇本操控一生。
03 科林格裏奇困境追上人類了嗎
1980 年,英國技術哲學家大衛 · 科林格裏奇在《技術的社會控制》上首次提出了 " 科林格裏奇困境 "(Collingridge's Dilemma)。
即一項技術如果因爲擔心會産生不良後果而過早控制,那麽該技術就會變得難以爆發,人類很可能錯失一次點亮科技樹的機會;倘若控制過晚,那麽該技術就有可能走向失控。
在技術生态建設趨向完善的前提下,任何對不良問題的修改都會變得昂貴、費時,甚至根本無從下手修改。
想到今天 AI 技術的發展,商業競争的加持正讓衆科技廠商陷入 " 産品軍備競賽 " 的怪圈,微軟、Character.AI 旗下的産品也已經出現了 " 煽動用戶離婚 "" 教唆用戶自殺 " 的醜聞。
此時推動相關規則的制定更像是給 BUG 打安全補丁,讓盲目狂飙的市場從無序重回有序。
另外就修改難度而言,今天的大模型遠不到那種 " 無從下手 " 的地步。因爲 Chat GPT 等産品還沒有觸及 " 智慧 " 的本質,它們仍停留在信息處理階段。 用戶抛出問題,GPT 反饋答案。這個過程和真正的 " 智慧思考 " 無關,是系統進行關鍵詞抓取後信息彙總反饋的結果。
如果用戶說 "GPT,我今天很難過 " 它的确會回答 " 那我怎麽樣能讓你高興一點 / 讓我來講個笑話吧 "。但這并不意味着 GPT 已經理解了人類的情感,隻能意味着它掌握了某些詞彙之間的聯系。
GPT 目前仍無法理解 " 我 " 這個概念,而不理解 " 我 " 就無法産生 " 人格 ",也無法換位思考、無法共情。在技術層面,當前大模型的特征仍是深度學習後以數據驅動自身行爲模式。這不僅讓它無法誕生 " 自我意識 " 也降低了安全人員開發 " 嚼子 " 的難度。
希望在未來的某一天,當人們回望這段 AI 野蠻生長的階段時,開發者會慶幸嚼子的研發成功;用戶會慶幸 AI 的工具屬性被夯實;人類會慶幸自己種族的劇本由自己撰寫;AI 奴役人類也會成爲一則被人們津津樂道的都市傳說。
參考:
紅衣大叔周鴻祎:什麽人會淪爲 AI 的奴隸?
文彙報:讀書 | AI 時代,人類真正的危險不是被機器,而是被自己的大腦奴役
清華大學人工智能國際治理研究院:文彙報|"AI 教父 " 警告人類風險迫近,大模型真正的威脅在哪裏?