作爲 OpenAI 的總裁,Greg Brockman 毫無疑問是世界上最了解和最會用 ChatGPT 的人之一。
最近,他在 TED 做了一場精彩的演講,詳細地演示了 ChatGPT 的「正确用法」,以及分享他對 ChatGPT、AI 的獨到思考。
ChatGPT 到底是什麽?它對人類社會有什麽意義?AI 未來應該怎麽發展?從這篇演講中你都能找到答案。
核心信息提煉:
未來幾個月内所有 ChatGPT 用戶都能用上插件功能。
建立在無數工具之上的 ChatGPT 是一種新的用戶界面模式。
人類與 AI 協作能解決許多看似不可能解決的問題,例如重新設計我們與計算機交互的方式。
七年前,我們成立了 OpenAI,因爲我們覺得人工智能領域正發生着一些非常有趣的事情,而我們希望幫助它朝着積極的方向發展。自那以後,整個領域的發展速度十分驚人。
我們從使用我們的技術的開發者(比如 Raymond)那裏聽到了許多美妙的事情,真的很令人欣慰。
我們已經聽到了一些人對人工智能感到興奮、擔憂或同時感受這兩種情緒的聲音老實說,這也是我們自己的感覺。
最重要的是,我們感到我們正在進入一個曆史時期,在這個時期裏,我們将會定義一項對我們社會至關重要的技術。
我相信我們可以将其善加利用。今天,我想向大家展示這項技術的當前狀态以及我們所堅持的一些基本設計原則。首先,我要向大家展示的是,構建人工智能工具與構建人類工具的不同之處。
我們現在有一個新的 DALL-E 模型,可以将其作爲 ChatGPT 的插件搭配使用。
你可以這樣做:給個建議,告訴我結束演講後的晚餐吃什麽,并把它畫出來。你可以從 ChatGPT 的交流中得到創意和創造性的靈感,而 AI 則能爲你完成剩餘的所有細節。
現在,ChatGPT 并不僅僅生成文本,它也生成圖像(注:使用了 DALL- E 插件後)。這使得它能夠更好地代替你,把你的想法變成現實。
現在,讓我們來看另一個 AI 工具的例子,比如存儲記憶。當你說「将它保存下來以備後用」時,這個工具将會保存這個信息。這些工具在使用時都是有迹可循的,你可以清晰地了解到機器在使用哪些工具,并提供反饋。
(圖片生成好了)這裏,我要指出的是這是一個現場演示,這一切都是由 AI 實時生成的,所以我實際上甚至不知道我們會看到什麽。這張圖看起來很不錯,把我也給看餓了。
讓我們回到正題,我們還使用其他工具擴展了 ChatGPT,例如,記憶功能。您可以說「将這個保存到以後(的使用中)」。
當你在使用這些工具時,你會看到寫着「使用 DALL-E 應用程序」的提示。順便說一下,所有 ChatGPT 用戶都會在未來幾個月内都能用上這個功能。
在這裏你可以看到 AI 是如何像人類一樣編寫提示的,便于你在後續做反饋調整。
現在這些信息已經被保存,讓我展示一下如何使用這些信息,并與其他應用程序組合使用。
你可以說:「現在爲我之前建議的美食制作一個購物清單,還要發布在 Twitter 上。」
你可以看到,ChatGPT 會選擇合适的插件,而無需我的指引。我認爲這是一種新的用戶界面模式。
過去我們總是習慣于思考該怎麽在不同的應用程序之間切換、複制 / 粘貼,并且通常隻有在你對這些應用很熟悉的情況下,才能獲得一個很好的使用體驗。
現在我們通過一個建立在無數工具之上的統一語言界面,就可以完成這些工作。
ChatGPT 爲我們生成了一個 Instacart 的購物清單,裏面包含了我們需要的購買的材料,非常方便。
需要說明的是,傳統的用戶界面仍然非常有價值。通過傳統用戶界面,我們可以快速地修改實際數量(等操作)。這表明傳統的用戶界面并沒有因此而消失,隻是現在我們有了一種新的、更高效的方式來構建它們。
現在,我們已經起草了一條推文,供我們審閱。這也是非常重要的一點。我們可以根據自己的意願,去調整人工智能的工作。
現在,讓我們回到主題上。我們打造 ChatGPT 的關鍵,不僅僅在于創建這些工具,還在于教導 AI 如何使用它們。當我們提出一些高難度的問題時,我們要求它做些什麽呢?
爲此,我們采用了一個古老的想法——阿蘭 · 圖靈 1950 年論文中提到的圖靈測試。
他說,你不可能用程序來爲這個測試生成一個答案,相反,你可以教它。就像教一個小孩子一樣,我們可以建立一個機器,并提供獎勵和懲罰來教導它嘗試一些事情,不論是好的還是壞的。
這正是我們訓練 ChatGPT 的方法。我們将其分爲兩個步驟。
首先,我們通過無監督學習的過程生成一個所謂的「機器孩子」,就像圖靈所說的一樣。我們向這個「小孩」輸入整個世界、互聯網的數據,然後讓它根據提供的文本預測下一個詞。
這個過程賦予了它各種技能,例如可以看懂數學題并通過推理得出答案。
但要掌握這些技能還需要進行第二步,即教導 AI 如何使用這些技能。爲此,我們要給 AI 提供反饋。
我們讓 AI 用多種方法爲我們提供不同的建議,然後再由人類評分,選出最合理的答案。
這樣不僅可以強化 AI 的具體表達,還可以強化産生答案的整個過程。
這使得 AI 能夠概括、教授并推斷人類的意圖,還能将其應用于它之前沒有見過或沒有收到過反饋的情況。
但有時我們需要教授 AI 的東西并不是我們期望的。
例如,當我向可汗學院展示 GPT-4 時,他們認爲它很棒,可以用來給學生做輔導。他們發現 GPT-4 不會糾正學生的數學錯誤,如果在對話中出現錯誤,它會假裝 1 加 1 等于 3 并繼續運行。
因此,我們需要收集更多的反饋數據,教授 AI 要在特定情況下反駁人類。
當在 ChatGPT 中點下 按鈕時,就會給我們發送一個信号告訴我們需要收集這段反饋。這是我們聽取用戶意見的方式,确保我們正在構建對每個人更有用的東西。
提供高質量的反饋是一件困難的事情,但是 AI 本身願意提供幫助。它願意幫助我們提供更好的反饋,并随着時間的推移擴大我們監督機器的能力。
舉個例子。你可以向 GPT-4 提個問題,然後它會給你回答兩個月。要知道,大模型回答的答案往往并不可靠,我們怎麽确保它的答案是正确的呢?
通常情況下,我們需要自己上網再次搜索相關的問題,對照檢查答案。這非常枯燥、繁瑣、費時。
現在我們可以把這些重複性工作丢給 AI。利用浏覽工具,我們可以 AI 自己來核實事實。我們把剛才的問題和回答輸入進去,然後讓它重新核實事實,它就會自己寫下它的思考鏈,一步步地搜索所需内容、對應檢查答案。
結果證明,GPT-4 果然回答錯了,正确答案是兩個月又一個星期。這是它自己檢查出來的正确結果。
這個過程非常有趣,因爲它需要人類與人工智能多步合作:人類使用事實核查工具是爲了爲另一個人工智能生成數據,從而使其能更好地爲人類服務。
我認爲這種合作模式在未來會變得非常普遍,即我們需要人類和機器協作來解決問題,确保人類以一種可視化和值得信賴的方式管理、監督和反饋機器。在這兩種力量的共同努力下,我們可以建立更加可靠的機器。
我相信,随着時間的推移,如果我們成功地把這個過程進行下去,我們将能夠解決一些看似不可能解決的問題——例如我們能夠重新設計我們與計算機交互的方式。
我相信,随着時間的推移,如果我們成功地進行這個過程,我們将能夠解決一些看似不可能的問題。爲了讓你更好地理解我所說的 " 不可能 " 的難度,我認爲我們将能夠重新思考我們與計算機交互的幾乎每一個方面。
讓我們拿電子表格作爲例子。
自從 40 年前出現了 VisiCalc 以來,電子表格就一直以某種形式存在。
但是,在這段時間裏,它們的變化并不是很大。這裏有一個關于過去 30 年 arXiv 上的所有 AI 論文的電子表格。大約有 167000 篇。
讓我向你展示 ChatGPT 如何分析這個數據集。我們可以讓 ChatGPT 使用 Python 解釋器作爲工具,這樣它就能像數據科學家一樣運行代碼。你可以直接上傳一個文件并提出問題。
你可以問它:「能不能做一些探索性的圖表?」
需要強調的是,這是一個超級高層次的指令,裏面帶有大量的意圖,我甚至不知道我想要的是什麽。因此,AI 必須推斷出我可能感興趣的内容。
它給出了一些不錯的想法,例如對論文作者數量的每篇文章的直方圖、每年論文數量的時間序列、論文标題的詞雲。我認爲所有這些都很有趣。很棒的是,它确實可以畫出來。
然後它會根據每年的論文數量制作一張圖表。然而,我們可以看到在 2023 年發生了一些奇怪的事情,看起來我們一直處于指數增長,然後就發生了墜崖式的跌落。
順便說一下,所有這些都是 Python 代碼,你可以随便檢閱生成的過程。這裏的問題很簡單,因爲我們今年還沒有結束,因此從數據來看 2023 才會這麽糟糕。
讓我們繼續輸入我們的反饋,讓他統計根據 2022 年 4 月 13 日前發布的文章數量占據 2022 年全年文章總量的百分比,公平地預測 2023 年全年的論文數量。
也許這對它來說有點過分,因爲它本已經神奇地推斷出這是我想要的圖标。
但我爲我的意圖提供了這個額外的指引。在幕後,AI 又寫了一遍代碼,所以如果你想要檢查它在做什麽都可以看到。
現在,它做出了正确的預測。
如果你注意到的話,它甚至更新了标題。我沒有要求這一點,但它知道我想要什麽。
現在我們回到幻燈片上。這張幻燈片展示了我對我們未來如何使用這項技術的願景。
在這個故事中,一個人帶着他病得很重的狗去看獸醫,但獸醫做出了錯誤的診斷,說:「讓我們再觀察一下。」如果主人照做了,這隻狗可能就沒能活下來。
但他沒有。他将狗狗的血液測試和完整的醫療記錄輸入給了 ChatGPT,ChatGPT 回複說:「我不是獸醫,你需要找專業人士咨詢,但我可以給你一些假設。」
帶着這些信息,他找到了第二個獸醫,後者成功地挽救了狗的生命。
我想表達的是,盡管我們現在的系統并不完美,但如果一個人與 ChatGPT 作爲頭腦風暴夥伴合作,或許就能取得非同凡響的結果。我認爲這是我們考慮如何将 AI 整合到我們的世界中時,需要反思和思考的事情。
我深信,讓 AI 正确運作需要每個人的參與。我們要共同地決定如何将 AI 整合進我們的生活,爲它制定規則,确定 AI 将能夠和不能夠做什麽。
AI 的發展已經超出了人們的預期,因此,我們每個人都必須得熟練掌握它,這也是我們發布 ChatGPT 的原因之一。我相信,我們能夠實現 OpenAI 的使命,确保人工通用智能造福人類。
訪談:
CA:主持人 Chris Anderson:
GB:Greg Brockman
CA:哇,我注意到在場的每個人的内心都有些許顫抖。我想,很多人看到這裏時,會覺得自己的工作每個環節都需要重新考慮。這太驚人了,但也太可怕了。那麽,讓我們談談吧。我的第一個問題就是,你們究竟能如何做到這一點?
OpenAI 隻有大約幾百名員工,Google 有數千名員工從事人工智能領域的研究。爲什麽是 OpenAI 開發了這個震驚世界的技術呢?
GB:實際上,我們都是站在巨人的肩膀上進行研究的,這是毫無疑問的。如果你關注計算機進展、算法進展或數據進展,那麽這些都是整個行業的進展。但我認爲,我們在 OpenAI 内部從早期就做出了許多深思熟慮的選擇。
第一個決定是直面現實。我們深思熟慮,思考實現進展需要什麽。我們嘗試了許多失敗的嘗試,所以你隻看到了我們成功的地方。我認爲最重要的一點是讓團隊中不同的人和諧地合作。
CA:你是否認爲你們在語言模型中看到的東西意味着,如果繼續投資和壯大它們,某些時刻可能會出現某些新的東西呢?
GB:是的。而且,我認爲這非常有啓示性。高層的深度學習一直是我們想做的事,這是一個深度學習實驗室,但具體該如何做呢?
早期我們不知道該怎麽做。我們嘗試了許多事情,其中一個人正在訓練一個模型,預測亞馬遜評論中的下一個字符,這聽起來就像是一個句法分析的過程,但他沒想到的是這其實一個最先進的情感分析分類器。這個模型可以告訴你評論是積極的還是消極的。
今天,我們會覺得這很容易,任何人都可以做到。但當你第一次看到這種從底層句法過程中出現的語義,我們知道,我們必須要擴展這個模型,看看它會走到哪裏。
CA:ChatGPT 被描述爲預測機器,然而我們所看到的卻感覺不太可能是通過預測得出的。有沒有一刻,讓你看到的事情出乎意料,震驚到了你的内心?請給我分享一下這個瞬間。
GB:是的,你可以在 ChatGPT 中嘗試做 40 位數之間的加法,這個模型将會計算出它們的和,這意味着它确實學會了一個内部的法則來解決這個問題。
而真正有趣的是,如果你讓它計算一個 40 位數加上 35 位數的和,它經常會出錯。這表明它确實在學習這個過程,但它還沒有完全泛化,對嗎?就像你不能記住 40 位加法表一樣,那比宇宙中的原子還要多。
所以它必須學會了一些普遍的方法,但它還沒有完全學會:噢,我可以将這個方法推廣到處理任意長度的任意數值加法。
CA:所以這裏發生的是你讓它擴大并查看大量的文本。它正在學習一些你不知道它能夠學習的東西。
GB:是的,而且它也更加細膩。所以我們開始真正擅長的一門科學是預測其中一些新出現的功能。而要做到這一點,我認爲這個領域中一個非常被低估的事情是工程質量。
就像你構建火箭時,每個公差都必須非常小一樣,在機器學習中同樣如此。你必須将整個堆棧的每個部分都正确地編好,然後才能開始進行這些預測。這裏有許多非常平滑的縮放曲線,它們向我們展示了智能的本質。
如果你查看我們的 GPT-4 博客文章,你可以看到這些曲線。現在我們開始能夠進行預測了。例如,我們能夠預測編碼問題的表現。我們基本上觀察一些模型,這些模型要小 1000 倍或者 10000 倍。這其實是縮放曲線的一部分,盡管現在還在早期階段。
CA: 在這裏,一個大的擔憂就是,随着規模的擴大,有些東西可能是可以被預測的,但是有時又會出現令人驚訝的情況。誰能保證這裏不會有巨大的風險導緻某些非常可怕的事情發生呢?
GB: 我認爲這些都是程度和規模以及時間的問題。此外,人們還會忽略與世界的融合,這也是一件極爲突出的緊急事件。這就是我們認爲逐步部署的重要原因之一。
因此,我認爲目前我們所看到的,如果你看看這次演講,大部分的注意力都集中在提供高質量的反饋上。今天我們所做的任務,可以進行檢查。比如說,很容易看出這道數學問題的正确答案是七而不是八。
但就連書籍的摘要,也是一個很難監督的事情。你怎麽知道這個書摘是好的呢?你必須讀整本書。沒人想這麽做。因此,我認爲重要的是我們要一步一步地做。當我們進入到書摘階段時,我們必須妥善監督這個任務。
我們必須建立起機器能夠真正執行我們的意圖的記錄。我認爲我們将不得不制定出更好、更高效、更可靠的方法來擴展這個技術,使機器與你保持一緻。
CA: 随後我們将會聽到有批評者說,你知道,系統内部沒有真正的理解力,它總是會産生錯誤它沒有常識等等。你相信它任何時刻都會是這樣嗎?你剛才談到的規模的擴大和人類的反饋,基本上會帶它走向真理和智慧等目标,你有信心嗎?
GB: 是的,我相信 OpenAI,我的短期答案是「yes」。我認爲 OpenAI 的方法一直都是盡可能地接觸現實。這個領域是充滿了破滅的承諾,所有這些專家都在說這樣或者那樣,事實并非如此。
人們已經說了 70 年内神經網絡都行不通。但他們不一定對。也許還需要再過 71 年這樣子。但我認爲我們的方法一直都是要推動這個技術的極限,從而真正看到實際效果,因爲這會告訴你,噢,這就是我們如何過渡到一個新的範式。我們還沒有挖盡這個領域的潛力。
CA:你所持有的立場相當具有争議性,認爲公開發布并利用這一切(而不是隻讓你的團隊提供反饋),讓全世界都提供反饋是做好這件事的正确途徑。但是……如果會出現不好的事情,當然這已經有不少。
我聽說過 OpenAI 在成爲非營利組織時的最初目的,是要作爲一個偉大的審核員,對于那些可能使用 AI 開展未知、可能惡意的行爲的大公司進行調查。你将建立一種模型,以某種方式使它們對其負責,并且在需要時能夠減緩進展。
或者至少我聽說是這樣的。然而,所發生的情況與此相反。你們發布的 GPT 尤其是 ChatGPT,在技術界引起了巨大的震動,以至于 Google、Meta 等公司現在都在瘋狂趕超你們。
他們的一些批評是,你們迫使他們在沒有适當防護的情況下發布這些内容,否則就會失敗。你們如何證明自己的做法是對社會負責而不是魯莽的呢?
GB:是的,我們經常思考這些問題。
嚴格意義上來說,我們始終不可能做得完全正确。但是,有一件事我認爲至關重要,即從一開始思考如何構建通用人工智能,使其有益于整個人類的角度出發,你該怎麽做呢?
你會選擇保持秘密,然後獲得這個極其強大的東西,接着就能将其安全使用,或者你就這樣去執行計劃,希望一切都能成功。我不知道怎樣執行這個計劃,或許其他人知道。但對于我來說,這個計劃讓人感到恐懼,并不合适。
因此,我認爲這個替代方案是我所看到的唯一另一條路線,即直面現實。我認爲,在這些機器變得完美、超級強大之前,給人們時間提供反饋、觀察它們實際行動是非常重要的。
我們從 GPT-3 看到了這一點。當時,我們真的擔心,人們使用它的主要目的是生成錯誤信息、嘗試幹預選舉。而它實際上被用來生成銷售偉哥的垃圾郵件,這成爲了它最主要的用途。
CA:所以說,垃圾郵件是很糟糕的,但有些事情比它還糟糕。讓我來談個思維實驗。假設你坐在一個房間裏,桌子上有一個盒子。你相信在那個盒子裏裝着一些東西,其中有很大的可能性是美好的東西。但有百分之一的可能會釋放出世界無法想象的邪惡。你會打開這個盒子嗎?
GB:那麽,當然不。我認爲你不能那麽做。老實說,我會告訴你一個以前從未講過的故事,就是在我們成立 OpenAI 不久之後,我記得我在波多黎各參加了一次 AI 會議。
我坐在酒店房間裏望着這美好的水,所有人都玩得很愉快。你會想一想,如果你可以選擇讓潘多拉的盒子在 5 年後或 500 年後打開,你會選擇哪個,對吧?
一方面,你也許會認爲對你個人來說,5 年後更好一些。但如果能等到 500 年後,人們可以有更多時間做對它,你會選擇哪個呢?我當時真的很感受到這一點。我覺得當然是 500 年。所以,我真的很明白你必須把它正确地應對。但我認爲這并不是實際情況。
如果你看看計算機的整個曆史,這是一次行業甚至是作爲技術發展的人類曆史上的轉變。你越是不把它們放在一起,就意味着你會留下一個負擔,也就是說,如果有人或某一時刻有人設法連接到電路上,那麽你就會突然擁有這個非常強大的東西,沒有人有任何時間去調整,也不知道會有什麽樣的安全措施。
所以,我的一個觀點是,即使是其他技術的開發,例如核武器,人們談論它是一個人類社會從 0 到 1 的變化。但我實際上認爲,它的研發在時間上一直非常平穩。
CA:我的理解是,我們擁有的模型可以視爲我們已經孕育了這個非凡的孩子,這個孩子可能擁有超能力,讓人類走向一個全新的世界。
這是我們共同的責任,爲這個孩子提供護欄,共同教導它成爲明智的人,而不是摧毀我們所有人。對嗎
GB:是的。我認爲非常重要的是,我們要學會理解這項技術,找出如何提供反饋,決定我們想從中得到什麽。我希望這會是正确的路徑。
點擊「在看」
是對我們最大的鼓勵