第二期華夏基石數智時代領導力特訓營熱招中!
報名即送十月管理論壇名額一個!價值12800元!
來源 | Z Highlights,管理智慧
咨詢合作| 13699120588
文章僅代表作者本人觀點,圖片來源于pixabay
圖片來源:Arts & Science - University of Toronto
'我決定大膽一點,制作一個前所未有的數據集,無論是在數據量上還是在多樣性上都超越以往。經過三年的努力,ImageNet成爲了一個包含1500萬張互聯網圖像的數據集,涵蓋了22000個物體類别概念。'
'我依然認爲,我們必須通過讓懂得數據的人和懂得如何使技術有效的人建立聯系來搭建這座橋。所以我的目标一直是創造能進行視覺識别的技術,并且這種識别方式要像人類那樣。'
'如果我(李飛飛)回到斯坦福,唯一的原因就是建立以人爲本的AI研究所,真正理解這項技術的人文一面。所以我認爲這十年非常重要,盡管在公衆眼中它沒有那麽顯著,但這項技術已經逐漸滲透到我們生活的方方面面。'
'如果比我們聰明得多的事物想要掌控,我們是無法阻止的。所以我們必須想辦法阻止它們産生想要控制的意圖。'
'如果我們做得對,我們将從"勞動經濟"轉向"尊嚴經濟",通過機器的協作,人類将因爲激情、個性化和專業知識而獲得收益,而不再是從事那些艱辛枯燥的工作。'
'我鼓勵大家不僅要接受這項技術,還要意識到這是一個新篇章。即便你認爲自己是技術專家或科學家,也不要忘記自己身上也有"人文主義者"的一面,因爲你需要這兩者才能爲世界帶來積極的變化。'
我非常高興地歡迎大家參加這次由Geoffrey Hinton和李飛飛的讨論。Geoffrey Hinton是多倫多大學的名譽教授,被許多人稱爲深度學習之父,而李飛飛是斯坦福大學的首任紅杉計算機科學教授,并且是斯坦福人本中心AI研究所的聯合主任。
我要感謝Radical Ventures和其他活動合作夥伴與多倫多大學一起創造了這個難得而特别的機會。多虧了Hinton教授及其同事的開創性工作,多倫多大學幾十年來一直處于學術AI領域的前沿。深度學習是推動AI繁榮的主要突破之一,許多關鍵發展都是由Hinton教授及其在多倫多大學的學生開創的。這種卓越的傳統延續至今。
目前很清晰的是,AI和機器學習正在推動整個經濟的創新和價值創造。它們還在改變藥物發現、醫學診斷和先進材料搜索等領域的研究。當然,與此同時,人們對AI在塑造人類未來中的作用也越來越擔憂。因此,今天的讨論顯然是一個及時且重要的話題,我非常高興大家能夠在這個重要的時刻與我們一同參與。
那麽,事不宜遲,現在讓我介紹今天的主持人Jordan Jacobs。Jordan是Radical Ventures的管理合夥人和聯合創始人,Radical Ventures是一家支持基于AI企業的領先風險投資公司,總部位于多倫多,并在全球範圍内運作。此前,他聯合創立了Layer 6 AI,并在被TD銀行集團收購前擔任聯合首席執行官,之後他加入TD銀行,擔任首席AI官。Jordan也是加拿大高等研究院的董事會成員,并且是Vector研究所的創始人之一,這個概念是他與Tomi Poutanen、Geoff Hinton、Ed Clark以及其他幾位共同構思出來的。那麽,尊敬的來賓們,請和我一起歡迎Jordan Jacobs。
Jordan Jacobs:非常感謝Meric!我首先想感謝多倫多大學的許多人,Meric、文理學院院長Melanie Woodin,以及衆多合作夥伴,他們共同促成了今天的活動。這是我們Radical舉辦的AI創始人年度四部分系列大師班的第一場活動,也是第三年舉辦。今年的第一場活動就在今天,我們同時以線上和線下的形式進行,所以現在有成千上萬的人在線上觀看。我們與Vector研究所合作舉辦這一活動,也非常感謝他們的參與與支持。此外,還有阿爾伯塔機器智能研究所和斯坦福AI研究所的支持,特别感謝李飛飛教授。非常感謝各位合作夥伴的鼎力相助。
我們希望今天會有一場非常有趣的讨論。這是Geoff和李飛飛教授第一次公開共同讨論,雖然他們是朋友,我平時也有機會與他們交談,但這次是他們首次在公衆面前一起對話。所以我認爲這将是一次非常有趣的讨論。讓我快速介紹一下他們的背景。Geoff常被稱爲AI的教父,他獲得了圖靈獎,是多倫多大學的名譽教授,也是Vector研究所的聯合創始人。他培養了許多如今在全球範圍内AI領域的領導者,包括許多大公司的頂尖研究人員和學術界的領袖。因此,當我們稱他爲教父時,确實有許多他的'子孫'正在引領AI領域的發展,這一切都可以追溯到多倫多。李飛飛是斯坦福人本中心AI研究所的創始主任,同時也是斯坦福大學的教授。她是美國國家工程院、國家醫學科學院以及美國藝術與科學院的當選院士。在2017至2018年休假期間,她擔任了谷歌雲的首席AI/ML科學家和副總裁。此外,李飛飛教授還培養了許多在全球範圍内領導這一領域的重要學生。
對于還沒有聽說的朋友們,李飛飛教授即将出版一本書,這本書将于11月7日發行,名爲《The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI》。我已經讀過這本書,非常精彩,大家都應該去買一本。我想給大家讀一段Geoff寫的封底推薦語,因爲比我自己說的要好得多。
Geoff這樣描述道:"李飛飛是第一個真正理解大數據力量的計算機視覺研究者,她的工作爲深度學習打開了大門。她在書中清晰而緊迫地描述了她幫助釋放的AI技術的巨大潛力和風險,并且她關于行動與集體責任的呼籲在這個關鍵曆史時刻尤爲必要。"所以,我強烈建議大家提前預定這本書,并在它出版後盡快閱讀。
好了,非常感謝李飛飛和Geoff能參加今天的讨論。我認爲毫不誇張地說,如果沒有這兩個人,現代的AI時代将不複存在,至少不會以現在的形式出現。所以讓我們回顧一下我認爲是AI的"宇宙大爆炸"時刻——AlexNet和ImageNet。Geoff,你願意從你的角度談談那個時刻嗎?現在已經過去11年了。
Geoffrey Hinton:好的,在2012年,我的兩名非常聰明的研究生赢得了一場公開比賽,他們展示了深度神經網絡可以遠遠超過當時的現有技術。其實如果沒有一個大數據集供他們訓練,這是不可能實現的。而在那之前,還沒有一個标注好的大規模圖像數據集,而這個數據集正是由李飛飛負責的。我要從詢問李飛飛教授開始,看看在構建這個數據集時有沒有遇到什麽問題。
ImageNet: 推動AI發展的裏程碑
李飛飛:謝謝Geoff,也謝謝Jordan,感謝多倫多大學,非常高興能夠參與這次活動。是的,Geoff你提到的數據集叫做ImageNet,我從2007年開始構建它,接下來的三年幾乎都在和我的研究生們一起工作來完成它。你問我在構建過程中是否遇到過問題?我該從哪裏說起呢?
其實從這個項目的構想到實施,已經遇到了不少問題。當時我是一個年輕的助理教授,記得那是我在普林斯頓大學擔任助理教授的第一年,領域内一位非常受尊敬的導師,在2007年我告訴他們這個計劃時,他勸我不要做這個項目。
Geoffrey:那應該是很大的壓力吧?
李飛飛:确實,他們給出的建議是,如果我做這個項目,可能會影響我獲得終身教職的機會。此外,我還嘗試邀請其他合作夥伴,但沒有人願意在機器學習或AI領域接近這個項目。當然,也沒有任何資金支持。
Jordan:能給我們介紹一下ImageNet,特别是給那些還不太了解的人?
李飛飛:好的,ImageNet的構想大約是在2006年到2007年。構建ImageNet的原因其實有兩個。首先,Geoff,我想我們有相似的背景,我接受的是科學家的訓練。對我來說,做科學研究就是追尋"北極星"。在AI領域,特别是在視覺智能方面,對我來說,物體識别,即讓計算機能夠識别圖像中的物體,比如識别出圖中的桌子或椅子,這就是所謂的物體識别,應該是我們領域中的一個"北極星"問題。我覺得我們真的需要在這個問題上有所突破,所以我想要定義這個北極星問題。
這是ImageNet的一個方面,另一個方面是我意識到當時的機器學習有些停滞不前。我們在構建非常複雜的模型,但沒有足夠的數據來驅動這些機器學習模型。用我們的術語來說,這其實是一個泛化問題,對吧?我意識到我們需要重新思考機器學習,轉向一個數據驅動的視角。所以我決定大膽一點,制作一個前所未有的數據集,無論是在數據量上還是在多樣性上都超越以往。經過三年的努力,ImageNet成爲了一個包含1500萬張互聯網圖像的數據集,涵蓋了22000個物體類别概念。
Geoffrey:爲了做個比較,當時在多倫多,我們制作了一個名爲CIFAR-10的數據集,它包含了10類物體,總共60000張圖像。做這個數據集花了很多功夫,每張圖像的成本是5美分。
Jordan:然後你将這個數據集轉變成了一場競賽。能否爲我們介紹一下這意味着什麽,然後我們快進到2012年。
李飛飛:我們在2009年完成了數據集,并勉強在一個學術會議上做了一張海報展示,但沒人關注。當時我有點絕望,但我堅信這是正确的方向。于是我們開源了數據集,但即使是開源後,仍然沒有引起足夠的重視。所以我的學生和我決定增加一點動力,發起一場競賽,邀請全球的研究社區通過ImageNet來參與物體識别問題。因此,我們舉辦了ImageNet競賽。我們得到的第一批反饋來自朋友和同事們,他們認爲數據集太大了,甚至無法裝入硬盤,更别提内存了。
因此,我們創建了一個較小的數據集,稱爲ImageNet挑戰數據集,隻有100萬個圖像,分布在1000個類别,而不是22000個類别。這個數據集在2010年發布。我記得你們在2011年注意到了它,對嗎?
Geoffrey:在我的實驗室裏,我們的深度神經網絡已經在語音識别方面表現得相當不錯了。然後Ilya Sutskever說,我們現有的技術應該能夠赢得ImageNet競賽。他試圖說服我參與,我說,這可是一大堆數據啊。他又試圖說服他的朋友Alex Krizhevsky,但Alex起初并沒有興趣。所以Ilya先處理了所有數據,将其格式化。
李飛飛:你們縮小了圖像的尺寸,對吧?
Geoffrey:是的,他稍微縮小了一下圖像的尺寸,并将其預處理得非常完美,最後Alex同意參與。
與此同時,在紐約的Yann LeCun的實驗室裏,Yann拼命地讓他的學生和博士後使用這個數據集,因爲他說,第一個将卷積神經網絡應用于這個數據集的人一定會赢。但他的學生們都不感興趣,他們都忙着做其他事情。于是,Alex和Ilya繼續進行了他們的工作。
我們通過運行上一年的競賽數據發現,我們的技術比其他技術好得多,所以我們知道我們會赢得2012年的比賽。然後出現了一個政治問題,我們擔心如果證明神經網絡赢得了比賽,計算機視覺領域的人尤其是Jitendra Malik,可能會說,這隻是證明了數據集不好。所以我們必須事先讓他們同意,如果我們赢了比賽,就證明神經網絡是有效的。于是我打電話給Jitendra,我們讨論了可能使用的數據集。我的目标是讓他同意,如果我們在ImageNet上取得成功,那就證明了神經網絡的有效性。經過一些讨論後,他建議我們嘗試其他數據集,但最終我們達成一緻:如果我們能夠成功應用于ImageNet,那就證明神經網絡有效。Jitendra記得這是他建議我們使用ImageNet的。
他認爲是他告訴我們要做ImageNet的,但實際上有點相反。我們做到了,結果令人驚歎。我們的錯誤率隻有标準技術的一半,而這些标準技術經過了多年的調優,由非常優秀的研究人員開發。
李飛飛:我記得當時的标準技術是支持向量機稀疏化(ZP注:一種支持向量機的改進算法)的。你們提交比賽結果的時間大約是在8月底或9月初。我記得那天晚上很晚時收到了一封電子郵件或電話,是我的學生發來的,他負責運行這次比賽。我們負責處理測試數據,目的是處理所有參賽者的結果并選出獲勝者。那一年,國際計算機視覺會議ICCV 2012将在意大利佛羅倫薩舉行,我們已經預訂了年度研讨會。
在那次會議上,我們将宣布獲勝者。這是第三年了,所以我們提前幾周就要處理獲勝隊伍的結果。坦白說,前兩年的結果并沒有讓我感到興奮。而且當時我還是一位哺乳期的媽媽,所以我決定不參加第三年的活動,也沒有訂票。我覺得離我太遠了。但是那天晚上結果出來了,是通過電話還是電子郵件,我真的記不清了。我記得當時對自己說,'糟了,Geoff,現在我必須買一張去意大利的機票',因爲我知道那是一個非常重要的時刻,尤其是卷積神經網絡,這個我在研究生時學到的經典算法發揮了作用。
當然,到了那時,已經隻剩下從舊金山飛往佛羅倫薩的中間座位的經濟艙機票了,還得中途轉機。這次去佛羅倫薩的旅途很艱辛,但我想要親自見證那個時刻。不過你沒有去,對嗎?
Geoffrey:沒去。是的,那真是一次艱辛的旅途。
李飛飛:但你知道那會是一個曆史性時刻嗎?
Geoffrey:是的,我确實知道。
李飛飛:我明白了,然後我把這個消息發給了Alex。Alex,那個忽視我好幾次郵件的家夥。
Geoffrey:他無視了你所有的建議,對嗎?
李飛飛:是的,我給他發了很多郵件,建議他做一些可視化,我說'Alex,這太酷了,請做這個可視化、那個可視化',但他一直沒回應我。不過Yann LeCun來了。對于那些參加過學術會議的人來說,你們知道研讨會通常會安排在較小的房間裏。我們預訂了一個非常小的房間,可能就隻有現在這裏中間區域這麽大。我記得Yann不得不站在房間的後面,因爲房間裏擠滿了人。最終,Alex也來了,我非常緊張,擔心他根本不會出現。正如你所預測的那樣,在那個研讨會上,ImageNet受到了攻擊,有人公開批評這是一個糟糕的數據集。
Geoffrey:不是Jitendra,因爲他已經同意了數據集的有效性。
李飛飛:我不記得Jitendra是否在那個房間裏,但我記得對我來說那是一個非常奇怪的時刻。作爲一個機器學習研究者,我知道曆史正在被創造,但ImageNet卻在被攻擊。那真是一個非常奇怪又令人興奮的時刻。然後,我不得不坐在中間座位飛回舊金山,因爲第二天早上我還有事。
AI先驅Geoffrey Hinton和李飛飛的探索之旅
Jordan:你提到了幾個人,我想稍後再讨論他們。比如Ilya,他是OpenAI的創始人兼首席科學家,Yann LeCun後來成爲了Facebook(現在的Meta)AI負責人。此外,還有很多其他有趣的人物。但在我們繼續探讨這場AI熱潮的成果之前,讓我們先回顧一下。你們兩位最初都懷抱着非常具體的目标,這些目标既個人化,又可以說是打破傳統的。你們經曆了很多挑戰,但始終堅持了下來。Geoff,你能先給我們介紹一下,爲什麽你最初想進入AI領域?
Geoffrey:我本科時學的是心理學,但成績不太好,我覺得如果不先搞清楚大腦的工作原理,心理學是永遠無法弄清楚心智的運作方式的。所以我想弄清楚大腦是如何工作的,并希望能有一個真正有效的模型。
你可以把理解大腦想象成搭建一座橋。一方面是實驗數據,可以從中學到很多東西;另一方面是可以實現我們所需計算的東西,比如識别物體的能力。這兩者之間存在很大差異。我一直覺得自己是在研究那些能夠真正運作的東西,并試圖讓它們越來越像大腦,但同時它們仍然能起作用。其他人則專注于基于實驗數據的理論,試圖找出可能有效的理論。
我們是在試圖建造這座橋,但并沒有太多人嘗試這樣做。Terry Sejnowski是從另一端嘗試建造這座橋,所以我們合作得很好。很多做計算機視覺的人隻想找到有效的解決方案,他們并不關心大腦。而那些關心大腦的人則專注于了解神經元如何工作等,但并不太關注計算的本質。我依然認爲,我們必須通過讓懂得數據的人和懂得如何使技術有效的人建立聯系來搭建這座橋。所以我的目标一直是創造能進行視覺識别的技術,并且這種識别方式要像人類那樣。
Jordan:我們稍後會回到這個問題。我想問你關于最近的發展,以及你如何看待它們與大腦的關系。
飛飛,Geoff剛剛概述了他的起點——從英國到美國,再到加拿大,80年代中後期到1987年他來到加拿大的過程中,對神經網絡的關注和資金支持經曆了起起伏伏。飛飛,你的起點則完全不同,你能否分享一下你是如何進入AI領域的?
李飛飛:是的,我的生活起點是在中國。15歲時,我和父母一起來到新澤西州的帕西帕尼市,成爲了一名新移民。我開始的時候是上英語作爲第二語言的課程,因爲我不會說英語,課餘時間在洗衣店和餐館打工。但我對物理學充滿了熱情,不知道爲什麽我會有這樣的想法。我當時想去普林斯頓,因爲我知道愛因斯坦曾在那裏。後來我真的考上了普林斯頓,雖然他早已不在了,但校園裏有他的雕像。我在物理學中學到的,除了數學之外,最重要的是敢于提出最瘋狂的問題,比如原子世界中最小的粒子,或者空間時間的邊界,宇宙的起源。在此過程中,我在大三時接觸到了大腦,讀了Roger Penrose的書。你可能有自己的看法,但至少我讀過那些書。
Geoffrey:也許你沒讀過那些書反而更好。
李飛飛:當我畢業的時候,我想作爲一個科學家提出最大膽的問題。而對我這一代人來說,2000年時,最吸引人、最大膽的問題就是智能。所以我去了加州理工學院,幾乎算是同時攻讀了兩個博士學位:一個是跟随Christof Koch學習神經科學,另一個是跟随Pietro Perona學習AI。所以Geoff,我非常贊同你關于"橋梁"的說法,因爲那五年讓我可以同時研究計算神經科學,了解大腦如何運作,也可以從計算的角度入手,嘗試構建能夠模拟人類大腦的計算機程序。這就是我的旅程,它從物理學開始。
Jordan:好的,你們的旅程在2012年ImageNet上交彙了。
李飛飛:順便說一下,我在研究生時就認識Geoff了。
Geoffrey:我記得我經常去Pietro的實驗室參觀。事實上,他曾在我17歲時給我提供了加州理工學院的工作。
Jordan:所以你們在ImageNet上相遇了。對于這個領域的人來說,大家都知道ImageNet是一個重要的'大爆炸'時刻。在那之後,首先是大科技公司進場,基本上開始挖走你們的學生和你們自己,顯然是他們最早意識到了這項技術的潛力。我想聊一聊這個過程。但快進到現在,我認爲自ChatGPT問世以來,公衆才真正意識到AI的強大,因爲他們終于可以親自體驗它了。人們可以在董事會會議中讨論AI,回家後,孩子也可以用ChatGPT寫出一篇關于恐龍的五年級作文。這個廣泛的體驗改變了人們對AI的認知,但在這十年間,大科技公司内部的AI爆炸式增長卻很少被外界察覺。你能分享一下你的經曆嗎?因爲你從ImageNet之後就身處這個"零點"。
神經網絡與深度學習的發展曆程
Geoffrey:我們很難進入其他人不明白發生了什麽的視角,因爲我們清楚地知道發生了什麽。許多本應處于前沿的大學在接受這一技術上反而非常遲緩。例如,MIT和伯克利。我記得在2013年時,我去伯克利做了一場報告,盡管那時AI在計算機視覺領域已經取得了很大的成功。報告結束後,一名研究生走過來說,他已經在這裏學習了四年,這是他第一次聽到關于神經網絡的講座。他覺得非常有趣,而他們早就應該了解這些了。
李飛飛:他們應該去斯坦福。
Geoffrey:MIT也一樣,他們強烈反對使用神經網絡,但ImageNet的成功開始讓他們轉變立場。現在他們是神經網絡的支持者了,但很難想象,在2010年或2011年,計算機視覺領域的很多專家非常反對神經網絡。反對的程度如此之深,以至于某個主要期刊《IEEE Transactions on Pattern Analysis and Machine Intelligence》一度有個政策,就是不對神經網絡相關的論文進行評審,直接退回,認爲這浪費時間,不應該出現在期刊上。
Geoffrey:Yann LeCun曾向一個會議提交了一篇關于神經網絡的論文,展示神經網絡在行人識别和分割方面優于當時的最先進技術,結果論文被拒絕了。拒絕的理由之一是,評審認爲這對計算機視覺毫無幫助,因爲他們相信計算機視覺的工作方式是:你研究視覺問題的本質,提出一個算法來解決它,然後再發表論文。
大多數人堅決反對神經網絡。然後在ImageNet競賽之後,發生了一個了不起的事情:他們幾乎在一年内都轉變了立場。那些曾是神經網絡的最大批評者開始使用神經網絡,而且比我們做得還好。比如牛津大學的研究人員,他們很快就做出了更好的神經網絡。但這正是科學家應有的行爲方式:他們曾強烈相信這些技術是無用的,但由于ImageNet的成功,我們證明了它的有效性,他們就改變了立場。這點讓人感到欣慰。
Jordan:你們的目标是用神經網絡來準确地标注這些1500萬張圖像,背後你們已經有了這些标簽,可以通過錯誤率來衡量結果。你們的錯誤率從前一年的26%下降到大約16%。
Geoffrey:是15.3%,确切地說是15.32%。
Jordan:我知道你會記得。随後幾年,随着越來越強大的神經網絡的使用,錯誤率持續下降。
李飛飛:在2015年,有一個非常聰明的加拿大本科生加入了我的實驗室,他叫Andrej Karpathy。他有一個夏天感到有點無聊,決定測量人類在ImageNet上的表現。你可以去讀讀他的博客。他組織了很多人類參與ImageNet測試的派對,我想他給了他們披薩作爲獎勵,和實驗室的學生一起進行測試。他們的準确率大約是5%,或者是3.5%。
Jordan:我記得是3.5%。也就是說,人類在3%左右的時間裏會犯錯誤。
李飛飛:我記得是在2016年,那一年的優勝算法ResNet超越了人類表現。
Jordan:最終你們不得不取消了這場比賽,因爲機器表現得遠遠超過了人類。
李飛飛:我們不得不停止比賽,因爲我們用完了資金。
Geoffrey:那個學生最初在多倫多大學學習,然後去了你的實驗室,後來成爲了特斯拉的研究負責人。
李飛飛:首先,他來到斯坦福成爲我的博士生。昨晚我們還在聊這件事,其實在這個過程中有一個突破性的博士論文。後來他成爲OpenAI的創始團隊成員之一,但之後去了特斯拉。
李飛飛:他現在回來了。不過我确實想回答你關于那十年發展的問題。
Jordan:那十年沿途有幾項重要的進展,比如Transformer。Transformer的研究和論文是在谷歌内部完成的,另一位加拿大人Aidan Gomez是論文的合著者,他現在是Cohere的CEO和聯合創始人。當時他是谷歌大腦的實習生,年僅20歲。加拿大人一直在這些突破中扮演着重要角色。Geoff,你當時在谷歌,那篇論文寫出來時,谷歌内部是否意識到它的重要性?
Geoffrey:我不認爲有這種意識。也許作者們知道,但我花了好幾年才意識到它的重要性。在谷歌,直到BERT(ZP注:是2018年10月由Google AI研究院提出的一種預訓練模型)使用了Transformers,并且在許多自然語言處理任務上表現得更好,大家才意識到Transformers的特殊之處。
李飛飛:2017年Transformer論文發表時,我也剛加入谷歌。我記得我們在我第一周見過面。我想2017年和2018年大部分時間,谷歌主要的賭注是神經架構搜索,那時用了很多GPU,所以這是一個不同的方向。
Geoffrey:簡單解釋一下,神經架構搜索基本上就是獲取大量的GPU,嘗試各種不同的架構,看看哪個效果最好。自動化這一過程就是神經網絡架構的自動進化。
李飛飛:同時也調整超參數(ZP注:AI語境下,超參數指機器模型外部的一種配置,其值無法從數據中估算出來),對吧?
Geoffrey:是的,這确實帶來了一些顯著的改進,但遠遠不及Transformers。Transformers在自然語言處理方面帶來了巨大的改進。
李飛飛:神經架構搜索主要用于ImageNet。
Jordan:我來說一下我們對Transformers的經曆。當時我們正在做Layer 6這家公司,我記得我們提前看過那篇論文的預印本。當時我們正處于融資和收購要約的過程中,讀完論文後,我和我的合夥人讨論過,他曾和你(Geoff)一起學習過,還有Maksims Volkovs,他是從Geoff的實驗室出來的。我們認爲這是神經網絡的下一次叠代。于是我們決定賣掉公司,成立一家風險投資公司,投資那些将使用Transformers的公司。我們估計這項技術需要五年才能被谷歌以外的公司采用,接下來十年,全球所有的軟件都将被這項技術替代或嵌入。
我們在ChatGPT發布前五年零兩周做出了這個決定。我很高興看到我們的預測是準确的,但我要向我的合夥人們緻敬,他們比我更深入地理解了那篇論文,并能夠完整地向我解釋它。
Geoffrey:我需要更正一下,你提到的Tomi其實從未和我一起學習過。他本來想來跟我學習,但我們系裏的一個同事告訴他,如果他選擇和我一起工作,那将會是他職業生涯的終結。
Jordan:所以他确實上過一些課,但他并沒有跟Geoff學習。這是我的合夥人,他在90年代末在多倫多大學攻讀碩士學位時,想跟Geoff學習神經網絡。當時他女友(現在是他妻子)的父親是一位工程學教授,告訴他不要這樣做,神經網絡是死路一條。所以他上了課,但最終寫了一個關于加密貨币的論文。
從技術到社會的轉變:探索人工智能的曆史與未來
李飛飛:你們還會談那十年嗎?因爲我覺得有一些重要的事情。
Jordan:請繼續。
李飛飛:我認爲有一個很重要的事情全世界忽視了,那就是在ImageNet、AlexNet和ChatGPT之間的這十年。大多數人将這十年視爲技術發展的十年,在大科技公司裏,事情逐漸醞釀起來,比如序列到序列的Transformer,雖然進展緩慢,但卻有重大的意義。但我個人認爲,這不僅僅是技術的十年,也是從技術到社會的轉變。我個人在這十年裏從一個科學家轉變爲一個人文主義者。因爲在我加入谷歌的兩年間,正值Transformer論文的發表期間,我開始意識到這項技術對社會的影響。
這是AlphaGo之後的時刻,很快我們又到了AlphaFold的時刻。此時,偏見問題和隐私問題開始浮現,我們也開始看到虛假信息和誤導性信息的苗頭,之後便開始讨論AI對工作的影響,雖然最初隻是小圈子裏的讨論,但很快成爲了公共話題。
那時我個人開始感到焦慮,2018年,尤其是在劍橋分析事件之後,技術對選舉的巨大影響變得清晰起來,雖然不全是AI,但卻是算法驅動的技術。這時我做出了個人決定,要麽繼續留在谷歌,要麽回到斯坦福。如果我回到斯坦福,唯一的原因就是建立以人爲本的AI研究所,真正理解這項技術的人文一面。所以我認爲這十年非常重要,盡管在公衆眼中它沒有那麽顯著,但這項技術已經逐漸滲透到我們生活的方方面面。當然,到2022年,這一切都變得非常清晰,技術的重要性變得顯而易見。
Jordan:那段時間還有一個有趣的事情,就是最終你、Ilya和Alex都加入了谷歌。但在此之前,有一家大加拿大公司有機會接觸這項技術。我聽過這個故事,但好像從未公開分享過,也許你可以分享一下?
Geoffrey:好的,我們用于ImageNet的技術,其實是我們在2009年爲語音識别開發的,專門用于聲學建模部分。你可以獲取聲波,并将其轉化爲一種叫做頻譜圖的東西,它顯示了每個時間點上各個頻率的能量。這些頻譜圖你可能見過,而我們想要做的,就是通過觀察頻譜圖來猜測哪個音素的哪個部分在頻譜圖的中間幀中被表達。
我有兩個學生,George Dahl和另一個我與Gerald Penn共同指導的學生Abdo,他的名字很長,我們都叫他Abdo。他是語音專家,George是學習領域的專家。在2009年夏天,他們做出了一個模型,表現比30年來語音研究的大型團隊做出的成果還要好,雖然差距沒有ImageNet那樣大,但确實表現更好。之後,George去了微軟,Abdo去了IBM,他們将這個模型帶到了微軟和IBM,兩大語音研究團隊開始使用神經網絡。
我還有一個學生Navdeep Jaitly,他想把這種語音技術帶到一家大公司,但由于複雜的簽證原因,他希望留在加拿大。所以我們聯系了黑莓公司(RIM),告訴他們我們有一種新的語音識别方法,效果優于現有技術。我們提出讓一名學生在夏天去他們那裏,展示如何使用這項技術,這樣他們就可以擁有最好的手機語音識别技術。經過一些讨論後,黑莓的一位高級主管表示不感興趣。所以我們嘗試将這項技術提供給加拿大工業的努力失敗了。于是Navdeep将這項技術帶到了谷歌,谷歌是第一家将其投入項目的公司。
差不多在我們赢得ImageNet比賽的同時,George和Abdo的語音識别聲學模型也被應用了。雖然有很多工作讓它成爲一個好的産品,比如降低延遲等問題,但最終它被用在了安卓系統中。有那麽一個時刻,安卓的語音識别突然變得和Siri一樣好,而這就是神經網絡的功勞。我認爲,這對大公司高層來說是另一個重要因素:他們看到了這項技術在視覺方面取得的驚人成果,也看到了它已經在語音識别産品中運作良好。所以他們意識到,神經網絡不僅能做語音識别,還能做視覺識别,顯然,它能夠做任何我們想要的任務。
Jordan:我們确實錯失了一些機會。
Geoffrey:的确,這很遺憾。可惜的是,加拿大工業沒有抓住這個機會。如果當時他們采納了這項技術,也許我們今天還在用黑莓手機。
AI的發展曆程及未來展望
Jordan:我們就先聊到這吧。我之前聽過這個故事,但我覺得讓公衆知道這個幕後故事很重要,這項技術本可以留在加拿大,甚至是免費提供給他們的。
好吧,讓我們繼續往前看。現在Transformer之後,谷歌開始以多種方式使用并開發這項技術。OpenAI成立時,你的前學生Ilya離開了谷歌,與Elon Musk、Sam Altman、Greg Brockman等人成立了OpenAI。Ilya是首席科學家,而Andre,你的學生也是OpenAI的早期成員。他們組成了一個非常小的團隊,最初的想法是要構建AGI(通用AI)。Transformer論文發表後,他們開始采用這項技術,并在内部取得了非凡的進展,但他們并未公開分享他們在語言理解和其他領域取得的成果。他們還在機器人領域有一些工作,比如Pieter Abbeel創立了Covariant,後來我們也投資了這家公司。但是語言模型方面的發展不斷推進。
外界對OpenAI的進展并不了解,直到去年11月30日ChatGPT發布,才讓大家關注到。
李飛飛:其實,GPT-2已經引起了一些人的關注。我記得在GPT-2發布時,我的同事Percy Liang,一位斯坦福大學的自然語言處理教授,告訴我,他突然對這項技術的重要性有了全新的認識。Percy立即請求建立一個中心來研究這一領域。我不知道這在多倫多是否有争議,但斯坦福是最早提出"基礎模型"這個術語的大學,有些人稱之爲大型語言模型(LLM),但我們認爲它不僅僅限于語言,所以稱之爲基礎模型。我們在3.5版本發布之前就創建了研究基礎模型的中心,肯定是在ChatGPT之前。
Jordan:能不能給大家簡單介紹一下什麽是基礎模型?
李飛飛:這是個很好的問題。有些人覺得基礎模型必須包含Transformer。
Geoffrey:它需要大量的數據進行訓練。
李飛飛:對,我認爲基礎模型最重要的一個特點是它可以在多個任務上進行泛化。你不會隻訓練它做某一項任務,比如機器翻譯。在自然語言處理領域,機器翻譯是一個非常重要的任務,但像GPT這樣的基礎模型不僅能做機器翻譯,還能做對話生成、摘要等很多任務。這就是基礎模型。現在我們在多模态領域也看到了它的應用,比如視覺、機器人和視頻。所以我們建立了這個中心,但你說的對,公衆是在2022年11月才真正注意到這項技術。
Geoffrey:關于基礎模型,還有一個非常重要的點:在認知科學領域,長期以來的普遍觀點是,神經網絡雖然能在有足夠數據的情況下做複雜的事情,但它們需要大量的訓練數據。人們認爲神經網絡需要看到成千上萬隻貓的圖片才能學會辨認,而人類的學習效率要高得多——隻需要很少的數據就能學會類似的任務。現在,這種觀點已經不再那麽流行了。
一個神經網絡從随機權重開始,可以在有限的數據上學會完成一個任務。如果你想做一個公平的比較,你可以拿一個已經在大量數據上訓練過的基礎模型,然後給它一個全新的任務,再看看它需要多少數據來學會這個新任務。這被稱爲"少樣本學習",因爲它不需要太多數據。你會發現,這些神經網絡在統計效率上相當出色,與人類相比,它們在學習新任務所需的數據量方面表現得非常好。
過去的觀點認爲,我們擁有大量的先天知識,這讓我們比這些神經網絡要強大得多,因爲它們隻能從數據中學習。現在,人們幾乎放棄了這種想法,因爲你可以拿一個沒有先天知識但擁有大量經驗的基礎模型,給它一個新任務,它能非常高效地學習,不需要大量的數據。
李飛飛:你知道嗎?我的博士論文就是關于"一次學習"(Oneshot Learning)的。不過很有趣的是,即便在基礎框架中,你可以進行預訓練,但隻有神經網絡的預訓練才能真正讓你實現多任務學習。
Jordan:這種技術基本上就是在ChatGPT中實現的産品化,全球在10個月前體驗到了它,雖然對我們中的一些人來說,感覺時間要長得多,因爲突然之間,那個發生了很久之前的"大爆炸"結果開始顯現出來。我個人的比喻是,就像是行星和恒星已經形成,大家現在能看到并體驗到10年前的成果。當你輸入文本提示,生成圖像、視頻或回答超出你預期的問題時,這種反饋體驗讓人感覺有些像魔法。
我個人認爲我們一直在移動AI的目标線。AI總是被認爲是那些我們還做不到的東西,它總是充滿魔力的。一旦我們實現了某些功能,就有人會說那不是真正的AI,目标線又會被移動。在這種情況下,當ChatGPT發布時,你的反應是什麽?我知道你的一部分反應是你離開了谷歌,決定做一些不同的事情。但當你第一次看到它時,你的想法是什麽?
Geoffrey:就像飛飛說的,GPT-2在我心中留下了深刻印象,之後的版本也在穩步發展。此外,我在谷歌内部看到了比GPT-3.5和GPT-4同樣出色的模型,比如PaLM。PaLM給我留下深刻印象的原因是,它可以解釋爲什麽一個笑話是好笑的。我一直用這個标準來判斷模型是否"理解"了内容:如果它能解釋爲什麽一個笑話好笑,那它就真的明白了。而PaLM确實能做到,雖然不是每個笑話都能解釋,但能解釋很多笑話。
順便說一句,這些模型現在解釋笑話的能力相當不錯,但它們講笑話的能力卻非常糟糕。這是有原因的,因爲它們是一次生成一個詞。如果你讓它們講一個笑話,它們會嘗試講出聽起來像笑話的東西。它們可能會說,"一個牧師和一隻獾走進了酒吧",這聽起來有點像笑話的開頭。然後它們繼續說一些聽起來像是笑話開頭的話,但當需要講出笑點時,它們并沒有提前思考笑點是什麽。它們隻是在嘗試制造一個像笑話的情境,最後給出的笑點往往很弱,因爲它們不得不想出一個笑點。雖然它們可以解釋笑話(因爲它們能在回答之前看到整個笑話),但它們不能講笑話。不過我們會修複這個問題。
Jordan:無論如何,你對此的反應是什麽?畢竟你一路上見過了很多幕後情況。
李飛飛:我有幾種反應。我的第一個反應是,雖然我一直以爲我很了解數據的力量,但我還是被數據的力量震撼了。這是一個技術性的反應,天啊,我應該做一個更大的ImageNet數據集,不過資金真的是個問題。
當我看到ChatGPT引發公衆對AI的覺醒時,不僅僅是看到GPT-2的技術時刻,我真心覺得,感謝我們過去四年對以人爲本的AI的投資。感謝我們與政策制定者、公共部門和民間社會建立了橋梁。雖然我們做得還不夠,但至少這些對話已經開始了,我們也參與其中,并在某些方面引領了這場對話。比如,作爲斯坦福大學的研究所,我們正在主導一項重要的國家AI研究雲法案,這項法案仍在國會通過過程中。
Geoffrey:不過現在國會沒在運作。
李飛飛:對,參議院的議程還在進行中。我們預見了這項技術的社會時刻。我們不知道它何時會到來,但我們知道它一定會來。這讓我感到了一種緊迫感。說實話,我覺得這是我們作爲技術人員和人文主義者必須要應對的時刻。
Jordan:我認爲你們兩位的共同反應是,我們既要考慮這項技術帶來的機會,也要思考它可能帶來的負面影響。
Geoffrey:對我來說,有一件事我直到很晚才意識到,那就是讓我對社會影響更感興趣的原因,正如飛飛所說,數據的力量。這些大型聊天機器人處理的數據量是任何人都無法想象的,是我們看到數據量的成千上萬倍。它們能夠做到這一點的原因是,你可以創建數千個相同的模型,每個模型可以處理不同的數據子集,并從中獲取調整參數的梯度,然後這些模型可以共享所有的梯度。因此,每個模型都能從其他模型處理的數據中受益。而我們無法做到這一點。
假設有1萬個人,他們分别讀了1萬本不同的書。每個人讀完一本書後,所有人都能知道所有書的内容。通過這種方式,我們可以變得非常聰明。這就是這些模型正在做的事情,所以它們比我們更優秀。
李飛飛:雖然我們在努力嘗試做到這一點,但方式不同。
Geoffrey:通過教育實現基本上是無望的,幾乎不值得花錢。
李飛飛:除了多倫多大學和斯坦福大學。
Jordan:我曾試圖向朋友解釋Geoff的幽默感非常諷刺,如果你和他相處足夠久,你就會明白。不過,我就讓你自己判斷吧。
Geoffrey:我們交換知識的方式大緻是這樣的,這是一個簡化的說法。我說出一句話,你弄清楚你需要在大腦中改變什麽。如果你相信我,我們也可以用這種方式在模型之間傳遞知識。
李飛飛的樂觀與Hinton的悲觀:技術與人性的交織
Geoffrey: 我給出一個句子後,你需要在大腦中進行調整,才能讓你自己也說出這句話。當然,這取決于你是否信任我。其實,我們也可以用這些模型來做同樣的事情。如果你希望一個神經網絡架構理解另一個完全不同的架構,你不能隻是簡單地給它權重數據。所以,你需要讓一個網絡模仿另一個網絡的輸出,這就是所謂的"distillation"。雖然這也是我們相互學習的方式,但因爲受限于每句話隻有幾百個bits的信息帶寬,效率很低。
但如果你有這些模型,這些digital agents每一個都有數萬億個參數,它們分别處理不同的數據片段,然後共享梯度。這相當于它們在共享數萬億個數據。因此,把它們的知識分享能力和我們幾百個bits的信息帶寬相比,顯然要強大得多。它們在知識分享上遠遠優于我們。
李飛飛: 我理解你在技術層面上的觀點,但聽起來這似乎是讓你感到特别悲觀的一個時刻。
Geoffrey: 那一刻我覺得我們人類的曆史也許就這樣了。
李飛飛: 我沒有你那麽悲觀,我稍後會解釋我的看法。
Jordan: 我們不如聊聊這個。李飛飛,你爲什麽感到樂觀?Geoffrey,爲什麽你相對更悲觀?
Geoffrey: 我之所以悲觀是因爲通常悲觀者總是對的。
李飛飛: 我們之前讨論時我也覺得自己是個悲觀主義者,所以我也不确定我現在算不算樂觀。當你十五歲來到一個完全陌生的國家,不會說一句當地語言,從零開始時,你會發現我的思維方式其實非常務實。我認爲人類和技術的關系比一般學術界的人預期的要複雜得多。因爲我們在象牙塔裏從事學術研究,總是希望能做出一些新的發現,發明出某種技術,但我們往往會很理想化。然而,當技術,比如AI,進入社會層面,它不可避免地會與人類行爲混合交織在一起。這就是爲什麽你說我是樂觀的,我認爲這更多是我對人性的信心。
我相信人類,不僅相信人類的韌性,還相信集體的意志。曆史的軌迹有時确實搖擺不定,但隻要我們做正确的事情,我們還是有機會的,我們還有機會創造一個更好的未來。所以我現在的感受并不是一種盲目的樂觀,而是一種責任感和緊迫感。另外,Geoff,我真的希望你能看到積極的一面。當你看到這一代學生時,比如我春季教授的"深度學習和計算機視覺"課程,這門課有六百名本科生。相比五年前,這一代學生已經完全不同了。他們進入課堂時不僅僅是爲了學習Deep learning、Transformer和生成式AI;他們還想談論倫理、政策、隐私和偏見問題。而這正是我看到人性在這一刻崛起的地方。
我認爲這種現象很脆弱。看看現在世界上的情況,比如華盛頓的局勢,确實很不穩定。但如果我們認清當下的局面,我覺得還有希望。
Geoffrey: 我不再教授本科課程,但我确實看到了一些年輕的教職員工的變化。以多倫多大學爲例,兩位非常有才華的年輕教授前往Anthropic專注于研究alignment問題。例如Ilya,現在全職緻力于這一領域的研究。所以,目前真的有一股強大的變革力量。我個人不太可能提出解決這個問題的創意,但是我可以鼓勵這些40歲左右年輕的研究者們繼續在這個領域努力,他們現在非常認真地在進行這些研究。
李飛飛: 隻要我們能夠把最優秀的頭腦聚集到這個問題上,這就是我希望的來源。
Jordan: Geoff,你離開Google很大程度上是爲了能夠自由地表達你對這個問題的看法嗎?
Geoffrey: 我離開Google是因爲我年紀大了也累了,想退休看點Netflix。而那時我剛好有機會說出一些我對責任的思考,而不必擔心Google會如何回應。
AI的多重風險與威脅
Jordan: 你确實開始在媒體上發表了很多意見。在過去的八個月裏,你們兩位溝通政客的數量可能比這輩子溝通的還多,從總統、總理到國會、議會等等。Geoff,你的擔憂是什麽,你希望通過表達達到什麽目的,以及你覺得是否達到了效果?
Geoffrey: 人們經常讨論AI的風險,但實際上存在很多不同種類的風險。比如,AI可能會導緻工作崗位減少,且并不會創造出同樣多的新工作機會。這樣一來,我們可能會有大量失業的人群出現。我們必須認真對待這個問題,因爲AI帶來的生産力提升不會惠及那些失去工作的人。富人會變得更富,而窮人會更加貧困。即便有基本收入也不能解決人類尊嚴的問題。許多人,包括學術界,希望通過工作感受到自己在做有意義的事情。
還有虛假新聞的問題,這是一個完全不同的領域。再有就是戰争機器人,這又是一個完全不同的威脅。各大防務部門都希望制造戰鬥機器人,沒有人會阻止他們。或許最終在我們經曆了一些機器戰争後,會出現類似日内瓦公約那樣的協議,就像對待化學武器一樣,化學武器在被使用後才被控制。
接下來是存在性風險,這也是我最擔心的。存在性風險是指人類可能會被我們創造出的更高級智能所消滅,這種智能可能決定要掌控一切。如果這些智能變得比我們聰明很多,就會出現很多假設。現在是一個巨大的不确定性時期,你不應該過分認真地看待我的話。如果我們創造出比我們聰明得多的東西,因爲這些數字智能可以更好地共享知識,所以它們可以學得更多,我們将不可避免地看到這些智能體爲完成任務而設立次級目标。如果你希望它們做某件事,它們會先決定需要做另一件事。比如,如果你想去歐洲,你得先去機場,這就是一個次級目标。因此,它們會設定次級目标,而一個非常明顯的次級目标就是,如果你想完成任何事情就需要獲取更多的控制權。如果你有了更多的控制權,事情就會更容易實現。
因此,任何擁有設定次級目标能力的事物都會設定獲取控制權的目标。如果比我們聰明得多的事物想要掌控,我們是無法阻止的。所以我們必須想辦法阻止它們産生想要控制的意圖。但還有一些希望,因爲這些智能體和我們有很大的不同,它們沒有進化出競争和攻擊性,它們完全是由我們設計的,它們是"永生"的。對于數字智能,你隻需将它們的參數存儲在某處,就可以在其他硬件上重新運行。所以,我們實際上已經發現了永生的秘密。唯一的問題是,這不适用于我們。我們是凡人,但這些智能體是"永生"的。這可能讓它們變得更加友善,因爲它們不需要擔心死亡,也不必像人類那樣爲了生存而競争。
李飛飛: 就像希臘神話中的衆神。
Geoffrey: Elon Musk曾對我說過類似的事情。他認爲我們就像是數字智能的啓動程序——我們是一種相對愚鈍的智能,僅僅足夠聰明去創造電腦和AI。而這種智能将會比我們更聰明得多。他認爲它們會把我們留下來,因爲有人的世界比沒有人的世界更加有趣。這似乎是一個非常脆弱的希望,但這與李飛飛提到的希臘神話中的神明模型相似,那些神明有時會留住人類來取樂。
李飛飛: 我想把你提到的四個問題歸類:經濟、勞動力、虛假信息和武器化,然後再加上滅絕和希臘神話中的神明問題。
Geoffrey: 我忘記提到歧視和偏見了。
李飛飛: 我把它們分成兩個類别,希臘神明和滅絕風險屬于滅絕性風險,其他所有的稱之爲災難性風險。作爲AI生态系統的一員,有責任确保我們不會誇大其詞。尤其是在與公共政策制定者的交流中。雖然說滅絕風險确實是一個非常值得學術界和智庫研究的有趣話題。
Geoffrey: 這也是我多年來的看法。我一直認爲這件事距離我們還有很長時間,覺得讓哲學家和學者們研究它很好。但我現在認爲情況緊迫多了。
李飛飛: 但這個過程并不僅僅是機器在運作,人類也在其中,因此需要更多的細膩思考。比如,我們讨論核能問題時,不僅僅是核聚變或裂變的理論。還涉及到鈾和钚的獲取、系統工程、人才等一系列問題。我相信你也看過《奧本海默》這部電影。所以,如果我們按照這個方向前進,我覺得我們比以往更有希望。因爲我們是一個社會,會設置保護措施,并共同努力。我并不想描繪一個明天就會出現大量機器人統治世界的場景。我們需要謹慎對待這個問題,但我也不否認我們确實需要認真思考。
至于那些災難性的風險,我更現實。我們需要彙集更多最聰明的人才來應對這些問題。例如武器化是一個非常真實的威脅,我完全同意我們需要國際合作,可能需要制定條約,理解相關參數。盡管我對人類保持樂觀,但也不得不承認我們有自我毀滅與相互毀滅的能力。
第二個是虛假信息的風險。2024年美國大選即将到來,AI将會在這個過程中扮演什麽樣的角色?我們必須處理社交媒體和假信息的問題。目前我看到在技術層面已經有更多的工作在進行,例如數字認證(Digital Authentication)技術的研究,我認爲我們需要投入更多資源。Adobe和學術界都在研究這個領域,我希望未來也會有更多初創企業加入。
接着是工作的問題,我非常贊同這點。你提到的最重要的一點就是人類尊嚴,如果我們做得對,我們将從"勞動經濟"轉向"尊嚴經濟",通過機器的協作,人類将因爲激情、個性化和專業知識而獲得收益,而不再是從事那些艱辛枯燥的工作。這也是爲什麽斯坦福大學的人類增強研究中心(HAI)有這樣一個創立原則,即人類增強(human augmentation)。
在醫療領域,我們已經看到這樣的應用。剛開始使用ChatGPT時有一位來自斯坦福醫院的醫生朋友找到我,說他們用GPT的醫療總結工具幫助醫生減輕了負擔,使他們有更多的時間專注于患者。這就是一個很好的例子,我們會在更多領域看到類似的情況,甚至是藍領領域。所以我們有機會把事情做好。
我想再補充一個關于災難性風險的擔憂,那就是權力失衡(power imbalance)的問題。目前我看到的一個正在迅速惡化的權力失衡現象就是公共部門的缺席。我不知道加拿大如何,但目前美國沒有一所大學有足夠的計算能力來訓練一個像ChatGPT這樣的模型。我認爲,即使美國所有大學的GPT、A100或H100算力加在一起,可能也無法做到。A100還不足以訓練ChatGPT。但我們在公共領域中擁有獨特的數據資源,比如用于癌症治療、應對氣候變化、經濟和法律研究的數據。因此我們需要對公共部門進行投資。如果我們現在不采取行動,我們将會失去整整一代人,并且讓這種權力失衡問題變得更加危險。
所以我同意你的看法。我們面臨很多災難性的風險,我們需要盡快應對。這就是爲什麽我們需要與政策制定者和公民社會合作。所以我不知道我現在說的是樂觀或悲觀的語氣,我自己聽起來更像是悲觀的,但我确實認爲有很多工作要做。
公共部門中創新與監管的平衡
Jordan: 從樂觀的角度來看,在過去的六到八個月裏,你們都直言不諱地讨論了很多這些問題。我們确實看到了一些重大變化,如Geoff提到的,有關鍵研究人員轉向這些議題,公共和政策也在變化,各國政府确實開始認真對待這些問題了。你們正在爲白宮和美國政府提供建議,還和多位總理進行了對話。這在十個月或十二個月前是不太可能發生的。你對目前的方向感到樂觀嗎?
Geoffrey: 我确實感到樂觀,人們終于意識到我們面臨着很多問題,包括災難性的風險和存在性的風險。我完全同意李飛飛的看法,災難性的風險更加緊迫,尤其是在2024年。我相當樂觀,人們現在确實在傾聽。
李飛飛: 是的,他們在傾聽。但我想說的是,首先,在傾聽誰的意見?我看到公共部門和私營部門之間的非對稱性,即使在私營部門内,你在聽誰的意見?不應該隻聽大科技公司和明星初創企業的意見。還有很多像農業、教育等領域需要關注。
第二,在所有這些噪音之後,什麽才是好的政策?我們讨論了監管與否的區别,我不知道加拿大的立場。通常是美國在創新,歐洲在監管。加拿大呢?
Jordan: 可能在中間。
李飛飛: 那很好。所以我我們需要的是既有激勵政策,也有公共部門的建設,解鎖數據的潛力。我們有許多數據被鎖在政府,比如森林火災、野生動物、交通和氣候數據。在制定技術政策時,我們需要考慮的一個關鍵點是如何進行有效的監管。我們經常談論監管或不監管的問題,但實際上,我們需要深入理解監管的具體層次。一個非常緊迫的監管領域,就是當技術以産品或服務的形式呈現,并直接影響人們生活的時候。無論是在醫療、食品、金融服務,還是交通領域,當這些技術與人類交互時,現有的監管框架可能并不完善。因此,我們需要加強和更新現有的框架,而不是浪費時間或可能錯誤地建立全新的監管系統。這樣可以更快、更有效地解決問題。
Jordan: 我還有最後兩個問題。第一個問題是,這項技術幾乎将影響所有領域,其中的一些正面影響非常顯著,比如幫助治愈癌症、糖尿病等疾病,緩解氣候變化,還能推動新材料的發明。這些新材料可以應用在能源、航空航天和制藥領域,這确實是多倫多大學正在進行的一項重大努力。我們現在可以實現以前無法想象的新世界,可以說科技在以往隻存在于小說或想象中的方式推動着科學進步。你們對這些方面的前景感到樂觀嗎?
Geoffrey: 我們都非常樂觀,我認爲這項技術将對幾乎所有領域産生巨大的影響。
Jordan: 對于現在正在學習的學生來說,這是一個非常激動人心的時刻,他們有機會參與進來,減少負面影響,同時也可以利用這個機會創造新的可能性,解決我們長期以來面臨的問題。這确實是人類曆史上最非凡的時刻之一。對于那些即将開始職業生涯的人,我的建議是盡量去思考最大的挑戰,思考如何利用這項技術來解決那些極具挑戰性的問題。盡量把眼光放遠,去追求那些最艱難、最有挑戰性的目标。
李飛飛: 我鼓勵大家不僅要接受這項技術,還要意識到這是一個新篇章。即便你認爲自己是技術專家或科學家,也不要忘記自己身上也有"人文主義者"的一面,因爲你需要這兩者才能爲世界帶來積極的變化。
Jordan: 最後一個問題,我們現在是否處在一個這些機器已經具備理解和智能的階段?
Geoffrey: 是的。
李飛飛: 不是。
問答環節
Q1: 你提到教育中的挑戰,特别是如何讓大學能夠賦能學生使用這項技術并進行學習。李飛飛也提到這項技術可以創造一個"尊嚴經濟",讓人們能夠專注于個性化和激情方面的工作,而不僅僅是爲了經濟生存。我想問的是,你們是否擔心在教育和職業生涯中,尤其是對孩子和學生來說,過度依賴AI可能會帶來的問題?他們需要培養技能,動腦思考,鍛煉大腦,如果不學習大腦就會變得遲鈍。你們對這方面的過度依賴有什麽看法?比如當我們有了可以使用Stable Diffusion生成畫作的工具,或者當你有了可以像Shakespeare那樣寫作的ChatGPT,學習這些技能的動力是否會減少?随着這些系統不斷進化,能夠解決更複雜的問題,這對我們的能力會有怎樣的影響?
Geoffrey: 這個問題讓我想起了以前口袋計算器剛出現時,人們說孩子們會忘記如何做算術,但事實證明這并不是一個大問題。孩子們可能确實忘記了算術,但他們有了口袋計算器。不過這可能不是一個很好的類比,因爲口袋計算器并不比他們聰明。孩子們可以忘記算術,然後去做真正的數學。但面對AI,我并不确定。
對我自己來說,我發現這反而讓我對世界更感興趣了,因爲我不需要花半小時去圖書館找書,隻需要問ChatGPT就能得到答案。這确實激發了我的好奇心,因爲我能更快地獲取答案。
李飛飛: 我想用一個小故事來回答這個問題。自從我成爲斯坦福大學的教授以來,我一直對大學裏的一個神秘辦公室感到好奇,那就是招生辦公室。我從來不知道他們在哪裏、是誰或是他們的辦公地點,直到今年早些時候我接到一個電話,他們想和我讨論關于ChatGPT和大學招生的問題。他們的問題是,我們是否應該在招生過程中允許使用ChatGPT。現在有了ChatGPT,我們該如何進行招生?
于是我回到家,與我11歲的孩子讨論了這個問題。我告訴他,我接到了一個電話,談論關于ChatGPT和學生申請的問題。如果一個學生提交了最完美的申請,但是用了ChatGPT,我們應該怎麽辦?我問他,你會怎麽處理呢?他說,斯坦福應該錄取那些最會使用ChatGPT的前2000名學生。最初我覺得這個答案很荒唐,但後來我意識到這是個很有趣的答案。孩子們已經把它當作一種工具來看待,他們把自己與這個工具的關系視爲一種賦能的方式。顯然,我11歲的孩子不知道如何衡量這點,這意味着什麽。但我認爲,這就是我們應該看待教育的方式,我們應該更新我們的教育體系。我們不能像Geoff所說的那樣把這種工具排除在我們的教育之外。我們需要擁抱它,并教育人類,讓他們知道如何利用這個工具爲自己帶來好處。
Q2: 現在我們擁有非常好的基礎模型,但在許多應用中我們需要模型的實時性能。你如何看待這個領域的研究方向,利用這些專家級的基礎模型來訓練更小、更快的模型?
李飛飛: 我們需要開始思考性能、推理過程,同時還要讓模型适應不同的設備,這取決于使用的情況。不進入技術細節的話,所有這些研究,包括超出研究範圍的情況,确實正在發生,但這需要時間。
Q3: 在你們20多歲時,是什麽驅動你們成爲研究人員?是什麽促使你們進入學術界和AI領域?因爲我現在有點困惑,不知道該繼續進入industry,還是直接讀博,或者先讀碩士再回到industry?還有一個問題,如果我申請直接進入你的實驗室讀PhD,你通常會看重什麽?是GPA、發表的論文,還是推薦信?
Geoffrey: 我對大腦如何工作産生興趣是在我十幾歲的時候,因爲我有一個非常聰明的朋友,有一天他來到學校,談論全息圖,還提到大腦中的記憶可能像全息圖一樣。而我的反應是,什麽是全息圖?從那時起,我就對大腦如何工作産生了興趣。所以,是因爲在學校有一個非常聰明的朋友。
李飛飛: 我得說得不客氣點,如果你讀過我的書,你會知道其實這就是我書中講的内容。有很多關于AI技術的書,當我開始寫這本書時,我想寫一個旅程,尤其是給年輕人看的,特别是來自不同背景的年輕人,而不僅僅是某種特定背景的人。這本書講述了一個年輕女孩的旅程,在不同的環境中,她逐漸認識到自己的夢想并實現了它。這和Geoff剛才說的并沒有什麽不同,一切都源于熱情。不論其他聲音如何的熱情。這種熱情可能來自朋友,來自你看的一部電影,來自你讀的一本書,或者是你在學校裏最喜歡的學科,任何都有可能。
對于我招的學生,我會尋找他們的熱情。我尋找的是雄心壯志,想要改變世界的健康雄心,而不是單純爲了獲得一個學位。當然,我也看重技術背景,不僅僅是考試分數,現在的标準确實很高。當你申請博士或研究生項目時,你可能已經有了一些成績記錄,雖然不一定必須有。你可以有完全不同的背景,你可能來自一個弱勢背景。我所看重的不是你現在的位置,而是你走過的旅程。這個記錄展示了你的旅程,展示了你的熱情和信念。
Q4: 我認爲benchmarks非常重要,它就像問題。ImageNet本質上是一個問題,人們嘗試用模型來回答它。現在LLM的評估非常困難,那些采取行動的generalist agents甚至更難評估。因此,我的問題與這些benchmarks有關。
首先,如果你坐下來和GPT-5、GPT-6或GPT-7交流,你有五分鍾的時間去使用它們,你會問什麽問題來判斷它們是否屬于下一代模型?其次是一個更全面的benchmark,我們需要什麽樣的更綜合性的benchmark來評估LLM或generalist agents?
Geoffrey: 這是個非常好的問題。不過我想稍微偏離一下,回答一個相關性不太強但有聯系的問題。當GPT-4出現時,這個問題就浮現了——我們如何判斷它是否"聰明"?我和Hector Levesque讨論過,他以前是計算機科學系的教授,他的看法幾乎和我截然相反。但他非常誠實,對GPT-4的表現感到驚訝,并且想搞清楚它到底是怎麽運作的。于是我們聊了很多。我請他給我一些問題去測試GPT-4。他給了我一些問題,我們想通過這些問題判斷GPT-4是否真的"理解"它在說什麽。
問題是,它真的理解它的回答嗎?還是隻是利用複雜的統計模型來預測下一個詞?有人評論說,要想準确預測下一個詞就必須理解之前說的内容。所以,準确預測其實是建立在理解的基礎上的。但話說回來,有時候你也可以在不完全理解的情況下做出還不錯的預測。那麽,GPT-4真的理解了嗎?
Hector提了一個問題:"我家的房間刷成了白色、黃色或藍色。我希望所有房間都變成白色,我應該怎麽做?"我知道GPT-4可以回答這個問題,于是我把問題變得更難。我說:"我家的房間刷成了白色、黃色或藍色。黃色的油漆一年後會褪成白色。我希望兩年後所有房間都變成白色,我該怎麽做?爲什麽?"如果你問"爲什麽"GPT-4會給你解釋。
ChatGPT解決了這個問題。它說,你應該把藍色的房間刷成白色,你不用擔心黃色的房間,因爲它們會褪成白色。它對措辭非常敏感。如果你不使用"fade"這個詞,而是用"change",就會出問題。有人說他試了但沒成功,因爲他用的是"change"而不是"fade"。我們理解"fade"是指顔色改變後保持不變。但如果你說"change",它可能會變顔色,但也可能再變回去。所以,當你換成"change"而不是"fade"時,答案就不一樣了。它對措辭非常敏感。
但這讓我相信它确實理解了。它還做了其他很多事情。最近有人提出了一個有趣的問題,很多chatbots都答錯了,甚至有些人也會答錯,但GPT-4答對了。問題是這樣的:Sally有三個兄弟,每個兄弟都有兩個姐妹,Sally有幾個姐妹?大多數chatbots都答錯了。
李飛飛: 那人呢?
Geoffrey: 我剛做了一場爐邊對話,采訪者讓我舉例說明chatbots出錯的例子。我給了他這個例子,他說答案是6個。這有點尴尬,我們就不說他的名字了,但人也會答錯。但我不明白,如果不能進行一定程度的推理,你怎麽可能答對。它必須在某種程度上建立一個模型。Andrew Ng有一些例子,比如在玩黑白棋時,即使你隻給它字符串作爲輸入,它也會在内部建立一個棋盤的模型。所以我認爲它們确實理解了。
Jordans: 進一步說,理解是否意味着跨越了智能的界限?
Geoffrey: 是的,我同意圖靈測試對智能的定義。人們隻是在我們通過了圖靈測試後才開始質疑它。
李飛飛: 我會補充Geoff的回答,我認爲他試圖推動的是我們如何評估這些大型模型的基本智能水平,不過還有幾個其他方面。首先,斯坦福大學HAI的基礎模型研究中心正在創建這些評估指标,我認爲這項技術已經發展得非常深入,以至于有些benchmarks比你想象的更複雜。比如像ImageNet這樣的benchmark,在與政府合作時會更加複雜。我們需要開始針對社會相關問題進行基準測試,而不僅僅是核心能力。還有一點,我想稍微擴展你們的視角,有很多超越LLM的未來AI技術,我們還沒有爲它們建立好的benchmarks。我的實驗室正在做一些關于機器人學習的研究,Google昨天剛剛發布了一篇關于機器人學習的論文。在這個領域将會有很多新的研究。
Q5: 正如你之前提到的,大學缺乏足夠的資金來訓練基礎模型。我想在AI和農業領域做研究,熱愛這個方向但資源有限。我可能能設計出一個很好的模型架構,但沒有資源去訓練它。所以我可能會考慮去企業推廣我的想法,但那樣一來我就無法掌控這個想法了,我不知道他們會如何使用它。你對這種情況有什麽建議嗎?
Geoffrey: 如果你能獲得一個開源的基礎模型,你可以用相對較少的資源去微調這個模型,所以大學依然可以進行微調。
李飛飛: 這是一個現實的答案,但我們正在和高等教育的領導人、政策制定者溝通,呼籲投資公共部門,我們需要建立national research cloud。我不知道加拿大是否有這樣的研究雲,但我們正在推動美國的建立,讓像你這樣的研究人員有機會接觸到。但你作爲學術研究者的優勢在于能夠接觸到那些對公共利益有幫助的data sets。你可以利用這點與政府機構或者社區合作,因爲公共部門依然享有很高的信任度。但就目前而言,微調開源模型是個好方法。
Q6: 一家AI初創公司的CEO提出如何負責任地開發AI的問題,很多讨論都圍繞這個話題展開。他們想知道作爲團隊,如何真正成爲推動積極影響的領袖,而不是助長負面結果,并且想了解"守護者"的責任究竟意味着什麽。
李飛飛:這個問題很棒。關于負責任的AI框架現在已經有很多了。幾年前有人統計過,大概有300個不同層面的框架,從國家級到企業級都有。我覺得每家公司都應該有自己的負責任AI框架。你可以借鑒很多現有的框架,甚至像Radical這樣的公司也在制定自己的框架。打造你相信的價值體系,意識到AI産品其實是一個系統,從最初問題的定義、數據集、數據的完整性,到模型的開發和最終的部署,都需要建立一個多方參與的生态系統,幫助構建負責任的框架。
另外,建立合作關系也很重要。比如和像我們這樣的學術機構合作,或者和關注隐私、偏見等問題的社會團體合作。作爲一家公司,你要有自己的立場,但同時也要融入這個生态系統,和有相關經驗的人合作。這是我目前的建議。
Jordons:和那些對這個問題感興趣的人合作非常重要。現在投資界有不少人在思考并引領這個方向。在Radical,我們在每一份投資協議中都加入了一條,公司有義務采用負責任的AI框架。最開始一些律師看到後會問"這是什麽東西?"并試圖删掉,但我們還是堅持加回去了。我們還在制定一個負責任的AI投資框架,并計劃廣泛推廣。我們和全球多個組織一起合作,過去四年裏我們見過7000多家AI公司,投資了其中40家左右。所以我們見識了很多,嘗試建立一個供其他公司參考的框架。我們也會開源這個框架,大家可以一起改進它,讓它更完善。我覺得各家公司隻要主動聯系那些志同道合的人,确實可以做出很多有意義的事情。
Q7: 研究人員和工程崗位的從業者今天是否也應該學習管理課程?
Geoffrey:我在Google時帶領一個小團隊,每六個月我們都會收到員工的反饋報告。其中一份報告上寫道:"Geoff非常好相處,但他可能需要上一些管理課程。不過如果他上了管理課程,那他就不再是Geoff了。"這就是我對管理課程的看法。
Q8: 從私營部門的角度來看,我們與各方合作,緻力于将NLP和LLM帶給更廣泛的社會。在公共部門和研究機構,特别是那些擁有大量人才和數據的大學,如何找到最好的方式來找到一種互惠的關系,讓我們和他們都有所貢獻?
李飛飛: 推動公共部門的投資非常重要,我更傾向于提倡合作。我們需要政府、私營部門和公共部門攜手合作。在斯坦福大學HAI的過去四年裏,建立一個行業生态系統一直是我們的主要工作之一。我們可以詳細讨論這些内容,但如果我和大學領導或高等教育界談話,我認爲我們應該積極地、負責任地擁抱這種合作。每個人可能會用不同的方式稱呼它,但我認爲這個生态系統非常重要。建立這種合作夥伴關系,成爲彼此負責任的合作夥伴,對雙方都很重要。資源也是一個重要因素,我們真的會非常感激這一點。
原文:Geoffrey Hinton in conversation with Fei-Fei Li — Responsible AI development
https://www.youtube.com/watch?v=QWWgr2rN45o
編譯:Faye Yu, Grace Bo