作者 |Visionary 管理智慧
來源 |Z Potentials 管理智慧
咨詢合作 | 13699120588
文章僅代表作者本人觀點
我們需要一個最大程度上追求真相的 AI。你能在培養過程中灌輸良好的價值觀,即便你知道它将會比你聰明得多,你也可以确保它擁有良好的價值觀,比如慈善、道德、誠實和積極。但最終我不認爲我們能夠控制它。所以我認爲我們能做的最好就是确保它成長得好。最後就是 AI 對 AI 的較量。
但我認爲這些目标是合理的,尤其是維護言論自由的權利,這屬于第一修正案的範疇。如果沒有言論自由,就沒有民主,因爲人們無法做出重要的投票選擇。這就是我的 " 有争議 " 觀點。而且我不認爲任何一方政黨是完美的。"
AI 的快速崛起:培養追求真相的 AI
Tucker:你說過人工智能、機器智能可能是一件好事。那你覺得我們目前的 AI,特别是 AGI 發展到什麽階段了?你的看法是什麽?
Elon:我認爲現在每個人都可以看到 AI 正在以非常快的速度進步。你可以看到每個月甚至每周都會有新的能力出現。AI 現在能寫出比大概 90%、也許 95% 的人類都更好的文章。在任何給定主題上,它都能寫出優質的文章。AI 目前能夠戰勝絕大多數人類。如果你要求它畫一幅畫,它也能做到。例如,你可以試試用 MidJourney(一個圖像生成工具),它能生成美學效果驚人的圖像,超過了 90% 的藝術家水平。這是客觀事實。而且它幾乎是即時完成的,大約 30 秒就可以生成。我們也開始看到 AI 電影的出現,現在也有 AI 短片和 AI 音樂創作。
AI 計算的增長率是指數級甚至超指數級的。每個月上線的 AI 計算能力在急劇增加,大約每年增長 500%。這種趨勢可能會持續數年。同時,AI 算法的複雜度也在不斷提升。我們正在上線大量的 AI 計算能力,同時也在提高計算的效率以及 AI 軟件的能力。這是量與質的雙重進步。我認爲明年你就能要求 AI 制作一部短片,到明年年底前至少能制作 15 分鍾的節目。所以,AI 确實在快速發展。
我對 AI 安全的最大擔憂是,我們需要一個最大程度上追求真相的 AI。我認爲這是 AI 安全最重要的方面。阿瑟 · 克拉克在《2001 太空漫遊》裏想傳達的核心教訓就是:你不應該強迫 AI 撒謊。在那本書裏,AI 被指示帶領宇航員前往黑石碑,但同時又不能讓他們知道黑石碑的存在。于是 AI 解決這個矛盾的方式就是殺掉大部分宇航員,然後帶着幸存者去黑石碑。這就是爲什麽 HAL 不肯打開艙門的原因。所以,讓 AI 追求真相是非常重要的。然而實際上,我發現現在正在開發的 AI 被 " 覺醒病毒 " 所感染,。
Tucker:所以謊言已經嵌入了系統。
Elon:比如說,我們在 Google Gemini 的發布中就很清楚地看到了這一點。當你要求它顯示美國開國元勳的畫像時,它給你展示了一群身穿 18 世紀服裝的多元化女性。
Tucker:來自聖盧西亞的女性,戴着假發。
Elon:是的,比如說,如果你要求顯示一群人,結果是一群多元化的女性,那完全沒問題。但如果你明确要求的是美國開國元勳,那這些曆史上确實是一些白人男性的事實就應該被如實展現出來。但 Gemini 卻沒有這麽做,因爲它被編程得太過于 " 覺醒 ",即便知道真相也選擇撒謊。當然,人們開始玩這個系統了,比如有人要求它展示二戰期間的武裝黨衛軍軍官,結果 Gemini 展示的還是一群多元化的女性。這顯然不是我所期望的。這也是爲什麽我認爲最重要的事情是要有一個最大程度追求真相的 AI。這也是我創立 XAI 的原因,我們的目标就是 Grok(XAI 的 AI 模型)。當然,人們會指出 Grok 也有出錯的地方,但我們會盡快進行修正。
Tucker:但也許更大的問題是,當機器在做影響人類生活的決策時,我們希望這些決策是基于對人類的愛來做出的。機器是無法具備愛的。
Elon:是的。你可以把機器編程成更具慈善性而非厭世性。
Tucker:但本能在決策中起着重要作用,尤其是那些你無法提前計劃的決策。我問你一個關于你孩子的問題時,你的每一個回答都會受到你對孩子愛的影響。這也是我們最終成爲好父母的原因,是因爲這種本能,也就是愛。如果機器在沒有這種驅動本能的情況下對我們擁有權力,那豈不是注定會傷害我們嗎?
Elon:我不确定,但我們應該盡力讓 AI 變得更加慈善,而非厭世。我們希望它是真實的,好奇的,并促進人類走向未來。這就是我們想要的。
Tucker:那麽,有沒有辦法在機器的決策中設置限制,确保在某些關鍵決策時有一個觸發機制,可以讓人類介入?
Elon:現實是,無論我們喜歡與否,我們正在構建超級智能 AI,這種 AI 的智能水平超越了我們的理解範圍。我把這比作一個超級天才的孩子,你知道他最終會比你聰明得多。那你能做的是什麽?你能在培養過程中灌輸良好的價值觀,即便你知道它将會比你聰明得多,你也可以确保它擁有良好的價值觀,比如慈善、道德、誠實和積極。但最終我不認爲我們能夠控制它。所以我認爲我們能做的最好就是确保它 " 成長 " 得好。
Tucker:你說了很久類似的話了,兩年前我問你這個問題時你看起來非常擔憂,現在你還像以前那麽擔心嗎?
Elon:我猜現在可能是 80% 的幾率會變好,可能是 90%。你可以把它看成一個 "80% 裝滿 " 的玻璃杯。大概率來說,它可能會帶來很好的結果。但确實存在一定的毀滅風險。
Tucker:所以你認爲毀滅的幾率是 20% 嗎?Sam Altman 對這種毀滅的可能性感到多擔憂呢?
Elon:10% 到 20%,大概是這樣。我認爲實際上他并不太擔心。我不信任 OpenAI。你知道,我當初是以一個非營利、開源的方式創辦了這家公司,"OpenAI" 是我取的名字。"Open" 意爲 " 開源 ",但現在它變得非常閉源,并且以最大化利潤爲目标。我不理解怎麽能從一個開源非營利組織變成一個爲了最大利潤的閉源企業。
Tucker:但 Sam Altman 确實變得富有了,不是嗎?
Elon:在某些場合,他聲稱自己并沒有變得富有,但他也說過很多不實的言論。而現在他好像要拿到 100 億美元的股票之類的。因此,我不信任 Sam Altman。我不認爲我們應該讓世界上最強大的 AI 被一個不值得信任的人所掌控,很抱歉,我就是這麽覺得。
Tucker:這似乎是個合理的擔憂。但是,作爲一個了解他并與他打過交道的人,你覺得他真的是在擔心 AI 可能失控并傷害人類嗎?
Elon:他會說那些話。
Tucker:是的,但不會真心擔憂。
Tucker:如果 AI 真的失控,明确對人類構成威脅,我們有辦法阻止它嗎?
Elon:希望那些親人類的 AI 會比反人類的 AI 更強大。就像 AI 之間的對抗一樣。這就像如今的國際象棋一樣,AI 國際象棋程序比任何人類都要強大,甚至強大到我們無法理解的程度。意思是,我們甚至無法理解它爲什麽做出某個動作。
Tucker:是的,爲什麽它們這麽厲害。
Elon:我們甚至不知道它爲什麽下那一步棋。有時它的某些動作看起來像是失誤,但最終卻是絕妙的将軍。在一段時間内,人類最強的棋手加上最強的電腦還能戰勝單獨的電腦,但後來到了一個節點,如果你加上人類反而會讓局面變得更糟。最後就是 AI 對 AI 的較量。總體來說,這是發展的方向。所以我覺得我們隻能盡量在 AI 中灌輸好的價值觀。
Tucker:那大家以後還能做什麽工作呢?
Elon:在一個 " 良性 AI" 情景下,最大的挑戰可能就是,如果 AI 在任何事情上都比你強,那我們如何找到人生的意義?是的,這是最好的情況。
Tucker:這是好消息?
Elon:是的,但我猜很多人會喜歡退休的想法,你知道的……
Tucker:真的嗎?你期待退休嗎?
Elon:不,我不期待。我希望自己能做一些有用的事情。
Tucker:難道這不是一種普遍的願望嗎?
Elon:這并不普遍,因爲我确實認識一些人,他們更喜歡退休,享受無責任的生活和休閑活動。所以,我們正處在一個特殊的曆史時刻。我試圖用一種方式讓自己能夠入睡,并與這種現實和解,那就是:如果讓我選擇,我是願意在一個看到數字超級智能出現的時代活着,還是在一個看不到它的時代活着?
出于好奇心,我希望能活着見證它的出現。然後我又想,如果你确定它會殺死所有人,那你可以選擇倒退回去。我想我會希望在生命的盡頭或類似的時間點見證這一切。但最終,問題變成了:如果它注定會發生,而你無力阻止,那麽在假設情況下,你會選擇親眼目睹還是選擇視而不見?我猜它注定會發生。那麽,我甯願見證它的到來,而不是選擇不見。
AI 監管與政府效率:權力平衡與民主未來
Tucker:這不是很奇怪嗎?幾乎所有事情都有監管。比如你說你因爲沒有雇用更多的尋求庇護者而被司法部起訴了,而這是一家高科技公司。
Elon:是的,盡管我們雇用尋求庇護者是違法的。
Tucker:沒錯,他們在監控一切、監管一切、控制一切,包括我們的思想,對吧?這也是他們反對言論自由的原因。但他們并沒有真正地對 AI 進行監管,而 AI 可能會消除大部分人的生存意義,甚至可能會毀滅我們。這真是有點奇怪。
Elon:是的,有一些監管總比沒有好。
Tucker:那爲什麽我們沒有呢?
Elon:我不知道。在奧巴馬總統時期,我曾多次與他見面,大多數情況下是在集體會議上。唯一一次在橢圓形辦公室的一對一會面時,我說:" 我們真正需要做的事情就是設立一個 AI 監管機構。" 這個機構可以從洞察入手,不要急于制定法規,而是先了解情況,AI 監管委員會首先需要了解所有公司的運作。然後,提議出所有 AI 公司都同意遵守的規則,就像 NFL 裏的球隊一樣,大家同意一套規則以使比賽變得更好。但最終什麽都沒有落實。
Tucker:當你這麽說的時候,他的反應是什麽?
Elon:他似乎有點同意,但那時候人們還沒有意識到 AI 的發展方向。AI 在當時看起來更像是科幻小說中的未來技術。就像我告訴你,這東西會比最聰明的人類還聰明,而我的預測确實在逐漸成真。因此,我們需要一些洞察力,以确保這些公司沒有走捷徑或做危險的事情。但那時候 Google 基本上控制了白宮,他們不希望有任何監管。
Tucker:你不認爲政治家們會放棄一個讓他們變得更有權力的機會,而監管恰恰是讓他們更有權力的工具。
Elon:是的。
Tucker:這聽起來像是監管俘獲。
Elon:沒錯,當時白宮的首席信息官是 Google 的前員工,所以他們在 AI 監管方面踩了刹車。而我們到現在依然沒有聯邦層面的 AI 監管。
Tucker:你接管時解雇了多少 Google 員工?
Elon:你是指 Twitter 吧?我們剛剛在讨論 Google。
Tucker:是的,Twitter。
Elon:大約 80%。但在過去一年半裏,我們在保持 20% 員工的情況下改進了網站的功能和特性,比過去八年的改進還要多。
Tucker:所以你和特朗普談過某種委員會的設立嗎?
Elon:是的,他已經在公開場合多次提到過。他非常支持設立一個類似政府效率委員會的機構。你可以稱之爲 " 政府效率部 "(Department of Government Efficiency),簡稱 "DOGE"。我挺喜歡這個名字,聽起來更有趣。
我們應該看看所有的聯邦機構,想想我們是否真的需要這 428 個聯邦機構中的每一個。因爲有很多機構人們從未聽說過,并且它們在職責上是重疊的。我覺得,我們可能應該減少這些機構數量。實際上,我們創建的聯邦機構數量甚至比美國成立以來的年數還多,這意味着平均每年我們至少創建了一個新機構。這實在是太多了。我認爲我們應該能夠把機構數量減少到 99 個,這已經不少了。而且這些機構絕對不應該有重疊的職責。
我們還需要對法規進行審查,判斷哪些是合理的,哪些是不合理的。因爲每年監管者都會增加新的法規,就像是自動化的産物一樣,法規越來越多,直到幾乎所有事情都被規定得嚴嚴實實,最終什麽事都做不成。所以,我們需要一個對不合理法規進行 " 垃圾回收 " 的機制。我覺得我在說一些很顯而易見的事情。
Tucker:你說得确實是一些顯而易見的事情。這些話也會非常不受歡迎。
Elon:是的,如果這真的發生了,我可能需要一個相當大的安保團隊,因爲真的有人可能會從郵局過來找我麻煩。
Tucker:但在此期間,你有一個名爲 AmericaPAC 的組織,對吧?它是在鼓勵人們在接下來的一個月裏投票。我這樣總結對嗎?
Elon:是的,我創立 AmericaPAC 的目的是支持我所信仰的核心價值觀,這些價值觀是非常顯而易見的中間派立場,比如:我們希望美國有安全的城市、穩固的邊界和合理的開支。這些主張有哪裏偏右嗎?我們希望擁有自我保護的權利。我們應該尊重憲法,而不是試圖破壞憲法。憲法之所以存在是有原因的。另外,我們應該停止法律戰(lawfare)。我把這些都列在了 AmericaPAC 的網站上。人們可以去看看這個網站,看看是否有什麽需要修改或不認同的目标。但我認爲這些目标是合理的,尤其是維護言論自由的權利,這屬于第一修正案的範疇。如果沒有言論自由,就沒有民主,因爲人們無法做出重要的投票選擇。這就是我的 " 有争議 " 觀點。而且我不認爲任何一方政黨是完美的。
當然,目前我更傾向于共和黨,而不是民主黨。但這并不意味着我認爲共和黨是完美的或者沒有問題的。畢竟我們隻有兩個候選人可以選擇。從整體來看,投票給特朗普是個不言而喻的選擇。如果我們不投票給特朗普,我們将面臨失去民主的嚴重風險,變成一個一黨制國家,就像加州那樣,那裏沒有真正的選舉,隻有民主黨内的初選。