何恺明 MIT 求職演講,真成 AI 圈大型追星現場了!
據量子位身處現場的聽衆朋友傳回的消息,有同學提前 3 個小時已經蹲在門口排隊了。
到演講開始前半個小時,門口的隊伍據說都打了好幾個彎……
△後續更正,PPT 不止 129 頁
來淺淺感受一下現場的氛圍:
此前何恺明回歸學界的消息傳出,咱們就聊過,這次 Job Talk(求職演講)代表何恺明至少已經通過了 MIT 的簡曆篩選,研究成果和能力得到了初步認可。
對于這次演講,何恺明也是準備了超 129 頁 PPT,回顧了他在 CV 領域所做的工作,涵蓋 ResNet、Faster RCNN、Mask RCNN、MoCO 和 MAE。
在談到未來工作方向時,何恺明還提到了 AI for Science。
除了關心大神的演講本身,還有網友注意到了何恺明的最新變化:
目前,尚不能确定何恺明最後是否會和 MIT 成功牽手。但此次演講,是他尋求教職傳聞的靴子落地。
還有網友發現,如果何恺明最終成功入職,那麽他将成爲 MIT 被引次數最高的人。
目前,MIT 全校被引用次數最高的,是化學與生物醫學工程系的重量級教授 Robert Langer,次數爲 38 萬 +。
而何恺明被引用次數高達40 萬 +。
其中,何恺明最出圈的研究,非ResNet莫屬,在 2021 年底突破 10 萬大關,如今已經漲到 15 萬。
ResNet 本身雖爲計算機視覺領域研究,但其核心思想殘差連接已經跨界成爲現代深度學習模型的基本組件。
開啓上一次 AI 熱潮的 AlphaGo Zero 就是結合了 ResNet+ 強化學習 + 蒙特卡洛搜索共同完成。而開啓最新 AI 熱潮的 ChatGPT,其中的 "T" 也就是 Transformer 網絡中同樣使用了殘差連接。
在計算機視覺上,何恺明的主要貢獻還包括 Faster R-CNN 及後續的 Mask R-CNN 等一系列研究,在很多年都是目标檢測的主流方法。
他的近期主要研究興趣是無監督學習,21 年底提出的 MAE,将語言模型的掩碼預訓練方法用在視覺模型上,爲視覺大規模無監督預訓練大模型開路。最近他還将掩碼方法引入衆多 AI 繪畫應用的基礎模型 CLIP,把訓練速度提升了 3.7 倍。
不過也有知乎匿名用戶從現場發來看法:整個 Talk 的質量并不好,何恺明沒用一個好的故事把工作串聯起來。
這是不是說明就連何恺明也不知道怎麽講好 CV 故事了。
那麽,這一次你在現場嗎?評論區觀後感走起 ~