OpenAI 官方 AutoGPT,要來了!
就在 AutoGPT 項目破 10 萬 Star 之際,OpenAI 也放出重磅炸彈,由聯合創始人格雷格 · 布洛克曼(Greg Brockman)親自現場演示了 ChatGPT 即将上線的新功能。
比如要一張這樣有氛圍感的晚餐圖片:
不勞您親自寫提示詞,它來:
采納 ChatGPT 推薦的菜譜之後,想要去買食材?
直接一句話,買菜平台的購物車就給你加好了:
想要分享買了啥?
一句命令直接鏈接發推特,整個過程你根本不用打開 " 小藍鳥 ":
聯網能力的加入,則可以讓它自動對回答進行事實核驗。
甩給它一個 Excel 文件,也是唰唰唰就開始分析:
完全是 AutoGPT 的感覺了有沒有!
在演示現場,聯合創始人布洛克曼劇透,新功能上線的時間,就在我給大家演示完之後(After this talk, you will be able to access this yourself)。
話音剛落,掌聲雷動。
要知道,此前 OpenAI 官宣要在 ChatGPT 上引入插件功能就引發熱議。如今随着實測效果曝光,絲滑的效果更是把期待值拉滿了。
有網友就表示:
在 TED 演講現場真實測試發一條推特,可見你們對自家 AI 的信任!
不過在等待結果時,老哥看着還是非常屏氣凝神的,後面測試成功後才笑了起來 ~
所以,ChatGPT 這些新功能具體效果如何?就跟着老哥一起來看看。
聊天界面直接加購物車、發推特
如下圖所示,即将到來的 "Auto 功能 " 藏在三個不同的新模式之中:
Browsing、Code Interpreter 和 Plugins。
Plugins可以讓 ChatGPT 接入各種外部應用,Browsing能開啓聯網能力,Code Interpreter則通過自動寫代碼幫你進行各種數據分析。
先看 Plugins 模式。
布洛克曼首先演示了 ChatGPT 接入 Dall · E 後擁有的新能力。
我們想在演講之後進行一頓晚宴,請給我們一份食譜建議,然後把它生成一張圖片 "。
很快,ChatGPT 就給出菜單,包括:藜麥沙拉、奶酪烤蘑菇、果盤、奶油南瓜湯、手工面包和雞尾酒等等,每個菜都詳細介紹了用啥具體食材搭配。
然後依靠 Dall · E App 插件,一張看起來非常有氛圍的大餐圖片就出來了。
布洛克曼介紹,Dall · E 插件在畫這張圖時,其實就是自己給自己寫提示詞,寫了下面這麽一大堆:
擱在以前,這都是需要我們人類自己來做的。現在這種 " 小事兒 " 交給 ChatGPT 就行了。
生成食譜之後,該準備相應的食材了吧。
同樣,隻需要給 ChatGPT 下達命令:選擇 "Instacart"(美國生鮮電商)插件,輸入文字 " 現在爲之前建議的菜譜列一份購物清單 "。
在這裏,布洛克曼還給它加了個小任務:" 并在推特上分享給所有 TED 觀衆 ",這就需要選上一個叫做 "Zapier"(一個可以連接各種應用的自動化工具)的插件。
在 Instacart 平台加購稍微耗費了 ChatGPT 一點時候,然後鏈接就出來了(這裏也用到了 " 檢索 " 插件)。
打開之後 " 誠不我欺 ",食材都被安排好了,直接下單即可。
(當然,在此之前,你也可以随意爲某些食材增加一些數量,或者家裏已經有的删掉就可以了。)
接着,ChatGPT 再次确認布洛克曼是否需要将鏈接分享到推特平台,布洛克曼回答 yes。
隻見一頓自動操作之後,ChatGPT 彈出來一個 Zapier 給出的預覽界面,上面有布洛克曼的推特賬戶名稱,以及一會要發布的文案供驗證和檢查。
這時的布洛克曼略顯緊張,不過成功了!
ChatGPT 自動幫他發好了一條推特,布洛克曼本人全程連推特網站碰都沒碰一下。
量子位專門去他的主頁看了一下,确實有這條推特,點擊裏面的鏈接,也确實是前面我們看到的購物車界面。
這就是強大的 Plugins 模式能夠做的事情,是不是非常有 AutoGPT 那味兒了?
除了這個無縫接入外部應用的操作,ChatGPT 還可以自己去上網查驗事實了。
衆所周知,聊天機器人有時會給出一些不易覺察的錯誤答案,引發誤導。
如下圖所示,布洛克曼問它 OpenAl 的兩篇博客文章 "Unsupervised Sentiment Neuron" 和 "Learning from human preferences" 的發布相隔了多長時間。
ChatGPT 答前者 2017 年 4 月 24 日發布,後者 2017 年 6 月 27 日發布,因此,這兩份出版物相隔大約兩個月。
然而事實真的如此嗎?
在這裏,就用切換到 "Browsing" 模式,然後将剛剛那個對話丢給 ChatGPT,讓它自己去驗證一下。
注意了,ChatGPT 拿到需求後,并沒有直接更新答案,而是一步一步地寫下了自己都要查什麽做了什麽:
首先我将搜索第一篇文章的發布日期,來驗證第一個日期。
鍵入論文題目開始搜索……
該論文的發布日期在搜索結果 0 的摘錄中給出。我将引用這段摘錄來核實用戶提供的第一個日期。
查看結果(可點擊)。
然後我去搜索第二篇文章的發布日期…… 結果在這裏給出…… balabala
經此環節後,ChatGPT 彙總出最終答案——
果然前面全都錯了,第一篇 2017 年 4 月 6 日發布,第二篇 6 月 13 日發布,兩者間隔兩個月零 1 周(量子位也實際驗證了一下,這回是對的)。
布洛克曼表示,像這種核驗咱們人類自己其實也可以做,但把它交給 ChatGPT 去做更有價值的事情才對。
而在這個過程中非常詳細地列出 ChatGPT 核驗的每一個步驟,則是方便我們去回溯整個推理鏈,以防萬一。
接下來,最後一個新功能登場。
這是用 Excel 表格彙總的過去 30 年所有人工智能論文(大約有 16.7 萬篇)。
現在切換到 "Code Interpreter" 模式,将文件直接上傳,來看看 ChatGPT 将如何對它進行自動分析。
它先是将表格中所有列名的含義都梳理了一遍,問布洛克曼接下來是想進行數據分析還是做可視化。
布洛克曼表示:老實說我自己也不知道想幹啥,但我可以讓它給出一些 " 探索性的圖 "。
這是一個超高級别的指令,背後可能包含了很多意圖,ChatGPT 必須推斷出我可能感興趣的東西。
聰明的 ChatGPT,給了三個選項,包括:
1、每篇論文作者數量的直方圖,這可以讓我們了解 Al 研究的典型團隊規模。
2、每年論文發表總數的時間折線圖,它可以向我們展示研究趨勢。
3、論文标題的單詞雲,它可以向我們展示研究标題中最常出現的詞語。
" 話音剛落 ",ChatGPT 就開始通過自己寫代碼生成結果:
布洛克曼注意到第二個折線圖把 2023 年也直接安排了,但今年還未結束,就讓 ChatGPT 重新進行繪制,ChatGPT 當然是照做了,并非常細緻地注明 2023 年發表的論文總數是預測出來的。
以上便是布洛克曼在這場演講中展示的新功能。
不過,想必大家還記得,這其實就是一個月前 ChatGPT 承諾的更新。
當時,OpenAI 宣布,ChatGPT 将擁有聯網功能,将可以接入各種外部應用,就像擁有 "App Store" 一樣,想完成任務直接就可以自動幫你調用相應的 App。
現在,這些新功能終于可以結束内測,開始擁抱每一個(有 Plus 賬号的)人了。
布洛克曼:是時候了解 AGI 了
演示完功能後,布洛克曼還接受了 TED 的訪談。
和此前 OpenAI CEO 奧特曼的訪談不同,布洛克曼回答了很多 " 幹貨 " 内容。有個人觀點的表達、成功經驗的分享、以及對質疑的直面回應。
比如:爲什麽這次給世界帶來震撼技術的是 OpenAI 而不是谷歌?
畢竟在開發團隊規模上,OpenAI 隻有幾百名技術人員,和谷歌差出了一個數量級。
布洛克曼的回答如下:
我們都是站在巨人的肩膀上,可以看到全 AI 行業在計算、算法、數據上都取得了進步。
不過 OpenAI 在早期,做了一些深思熟慮的選擇。
我們的第一個選擇就是直面現實,比如我們很認真地想過如果想要在這個領域取得進展,需要做什麽?我們也做了很多沒有用的嘗試,最終你才能看到這些有用的結果。
我還認爲,最重要的是讓不同團隊之間可以緊密協作。
那麽,爲什麽 OpenAI 會堅信大模型的能力和趨勢?
布洛克曼表示,他們一直都知道深度學習最終會通往何處。但具體來看,一個實驗室應該怎麽做?
他用一個 " 無心插柳柳成蔭 " 的例子來說明:
過去我們有人嘗試訓練一個模型,預測亞馬遜平台評論的下一個字符。
最終,他得到了一個可以分析評論句法的模型,但同時也得到了一個達到 SOTA 的情緒分析分類器,可以告訴人們這條評論是好評還是差評。
這個算法在現在看來可能不足爲奇。但在當時我們第一次從底層句法中分析出來語義,我們就知道必須朝這個方向做下去。
當然,從 ChatGPT 誕生以來,質疑一直都存在。
比如很多人在體驗後覺得,ChatGPT 并沒有在真正意義上掌握知識。
主持人抛出問題,所以擴大模型規模、大量的人類反饋,會帶大模型通往真正意義上的成功嗎?
布洛克曼的回答非常肯定:是的。
而且補充說:
我認爲 OpenAI 的方法一直都是如此,用現實打臉。
……
我們的方法一直都是如此,必須突破技術極限才能看到它實際的能力。這也是我們如何轉向新範式。
但 OpenAI 的堅定,如今也受到了很多質疑,尤其是對 AI 倫理有擔憂情緒的人。
比如有聲音就表示,作爲一個非營利組織,OpenAI 不僅掀起了一場全球範圍内的技術趨勢,還使得很多科技巨頭不得不加入進來,這會不會導緻 AI 的發展産生巨大危險。
馬斯克及千名科學家呼籲 " 暫緩 AI 開發六個月 ",也是出于這個原因。
布洛克曼直言:
從一開始我們考慮如何構建通用人工智能時,實際上是希望它能造福全人類。
如果是秘密開發這一切,然後在弄清楚安全性後,再按下 " 開始鍵 ",你希望你做對了,但對于我來說,并不知道該如何執行這一計劃。
可能其他人會這麽做,但對于我來說,這是可怕的、感覺不太對。
我認爲這種路線目前的唯一替代方法,在機器變得完美之前,給人們時間來提建議。
布洛克曼表示,人類開發計算機、算法等技術,都是 step by step,并且要在推進的每一個階段去弄清楚如何管理好它們。就好像養大一個孩子,是大家共同引導、給它樹立規矩,而不是教它毀滅人類。
如今,AGI 已經做好準備來改變我們使用計算機的方方面面了。
是時候讓我們都了解這項技術了。
參考鏈接:
https://www.ted.com/talks/greg_brockman_the_inside_story_of_chatgpt_s_astonishing_potential/comments