ChatGPT怎麽突然就火了?
他說,"山中方七日,世上幾千年。當你埋頭在屋子裏面,研究最新技術進展,比如現在的最火的ChatGPT,出門一看,好像滿世界的人都把它當成了很新鮮的事情。其實ChatGPT3.0算是一個比較大的突破,但它兩年前就有了。它的結構、基本原理也存在很多年了。"
這輪技術到底是什麽?ChatGPT真的會思考嗎?
他說,"這輪技術,大概率就是把我們的知識進行提煉……機器是不會想的,想這個詞是人類自己發明出來的。如果你硬把這種能力視爲"想",不能說錯與對,但它會誤導你對機器的判斷、理解和定義。"
ChatGPT究竟是怎麽做出來的?
他說,"Sam Altman(OpenAI CEO)那批人就是堅信大模型大力出奇迹,就能夠表征人類的知識,就這麽簡單。"
……
ChatGPT的本質是什麽?是否将替代人類工作?我們人類又該如何與之共存?
今天,我們邀請韋青老師,微軟中國CTO做客混沌。他将利用工程師的底層視角,爲大家揭開人工智能的冰山一角,探尋ChatGPT爲何全球爆火。
韋青老師說,"大家有沒有感覺到,每天好像都是見證時代的一天。由于我們的工作背景,在技術領域、在微軟,能看到更多現象,我想跟大家講,首先看到任何現象,先不用感到驚訝。帷幕剛拉開一角,舞台尚未完全展開。"
以下爲課程筆記:(篇幅所限,本文内容僅爲課程十分之一,請前往混沌APP聽完整課程!)
授課老師丨韋青 微軟中國CTO
編輯丨混沌商業研究團隊
支持丨混沌前沿課
1. 我們需要通過ChatGPT理解什麽?
GPT是現在最熱門的話題,但GPT3模型兩年前就培訓出來了。GPT4的出現讓人驚豔,但去年8月份它就已經被訓練出來了。
什麽意思?ChatGPT實際上是冰山一角。當我們看到某些現象出現的時候,某種意義來講,這件事已經結束了。而這個時代才剛剛開始,ChatGPT現象會層出不窮。
再追逐冰山已經沒什麽意思了,我們要盡快通過浮起的冰山,去理解我們可能進入了一片冰山叢生的海洋。
從一個本質性的構成來講,人類對世界的認知已經經曆了三個階段:農業時代是物質構成的。有地、有糧、有人就等于有權力,有生存的空間;工業時代如果你有能源、有動力,比有糧食還具備競争力;到第三階段,人類發現信息也是構成世界的一種本源性的存在。思想受什麽影響?信息。
無論是麥克盧漢,還是鮑德裏亞的理論,都已經強調了信息、電子信息的出現,可能會使人類社會的結構、邊界、性質、方式都發生變化。
麥克盧漢最出名的理論是地球村。請想象一下,在父母輩的時代,朋友大部分是單位的同事,來自家族、村子、單位。僅僅過了幾十年,現在你的朋友圈還受公司約束嗎?
鮑德裏亞的觀點是,如果人類無止境地或者完全泛濫地利用數字化信息技術,我們很快就會進入一個比真還真的時代,那些由人工智能生成的照片、文字,你覺得它是真的嗎?
鮑德裏亞說的"比真還真"的時代,它已經來了。
······
篇幅所限,
本文内容僅爲課程十分之一。
點擊海報,前往APP看課!
這幾個月太熱鬧了,或許先不需要這麽快下結論。當你埋頭在屋子裏面,研究最新技術進展,比如現在的最火的ChatGPT,出門一看,好像滿世界的人都把它當成了很新鮮的事情。
ChatGPT3.0算是一個比較大的突破,但它兩年前就有了。它的結構、基本原理也存在很多年了。
語言是思想的邊界,這是維特根斯坦說的,但我要給他再加一句話,技術是思想的實現。
我們忽略了一點,能夠把技術開發出來,先得有一個思想。ChatGPT,實際上它隻是一種提取已經被沉澱、被記憶的知識的一種交互方式,底下什麽?是基礎模型。像谷歌的BERT,Facebook的LLaMa。
爲什麽GPT現在那麽火?它背後是OpenAI的技術信仰,再加上微軟的Satya(微軟CEO)、Kevin Scott(微軟CTO)這些人的技術信仰的結合。這些人都相信,靠大量的語料和海量的計算,能夠産生出對于知識的沉澱和應用。
Sam Altman說,GPT走出的第一步,是拿把人類知識先沉澱下來。就像先把玫瑰花蒸餾成玫瑰精油。
但精油太濃了,你要使用的話,需要調和。所以第二步,就是用Instruct(指令)的方法,用提示詞的方法,把精煉的玫瑰精油,滴到沐浴露中去。
但是,這件事沒被證明可行之前,某種意義上是完全要靠信仰支撐的事情。有多少人敢這麽做?又要花人力、花時間、花海量的金錢,結果可能竹籃打水一場空。某種意義上,它的成功也可以理解成幸存者偏差。
我認爲你要贊歎的,不應該是ChatGPT的模型多麽偉大,而是它背後耐得住寂寞、懷疑的這種定力、決心、信心,這已經是一種技術信仰了。
我們有沒有對于工具、對于數字化技術的技術信仰?這才是我們應該問自己的。
認知達到信仰的層面,才能夠選一條沒有人走過的路。盡管今天還走不通,但你就認爲這條路可以走,因爲第一性原理告訴你,這樣做是對的,隻不過人類的技術還沒有發展到那一步,還證明不出來。
另一個例子是SpaceX。它成功了,大家都覺得太牛了。但當馬斯克後來接受媒體采訪時,他哭了。他說當時我認爲火箭可以回收,但NASA、所有大咖級人物、科學家都跟他講,這條路是走不通的。
OpenAI是一樣的,我們認爲它在2023年1月忽然出名,怎麽可能?它背後有太多的辛酸、堅持、疑惑、搖擺,隻不過堅持下來了。
3. 現在的機器并不具備真正的思想力
這一輪技術,大概率就是把我們的知識進行提煉。知識哪來的?是我們的所作所爲、所寫所說,落成的文字、視頻、語音,經過數字化之後,被機器去提煉,建成一種模型,變成知識沉澱下來。
爲什麽大家覺得它很神奇呢?因爲沒有任何一個人有這種能力,能記住人類所有的知識。
有些人覺得,機器會湧現出一些思想能力。确實,它會表現成思想能力。但如果你知道它的算法是如何做出來的,你還是會形成自己的判斷。
我要想先聲明一下,每個人都會對這種現象産生不同的解讀。我的解讀是,現在的機器并不具備真正的思想力,是把人類知識記憶之後的一種使用能力。
機器是不會想的,想這個詞是人類自己發明出來的。如果你硬把這種能力視爲"想",不能說錯與對,但它會誤導你對機器的判斷、理解和定義。
4. 做一個思想實驗,這輪技術到底是什麽?
如果我們發現了,可以通過蒸餾的方式,從植物中蒸餾出它的油性。請問,花園甲跟花園乙的擁有者,做同樣的事情,最後的價值會是怎樣的?他們做出來的東西,對社會的影響力會大不相同。
花園甲的擁有者,會懷疑提純機器不行?還是會痛定思痛,發現原料有問題?
當我們從農業文明進入工業文明,已經受過很多降維打擊了。當物質、能量變成信息的時候,會帶來更加降維式的打擊。
這種競争方式,已經不是技術能力的競争,有錢沒錢的競争……而是文明在一較高低。
你的文明所表現的形式,能否被新一代的會思考的機器學到、吸收到,并且讓它的行爲方式對你有利?
ChatGPT剛火的時候,知乎股價飛漲。在中國,具備語言語料的網站絕對不止知乎。爲什麽它漲得那麽厲害?我沒做過詳細統計,但我認爲,知乎的花園可能類似于花園乙。
我們再扪心自問下,貴公司、貴機構、貴組織,你們的知識的表現形式、呈現方式,更像是左邊還是右邊?你未來如何跟具備這樣能力的公司競争?
如果你的信息,無法沉澱成能被機器學習的知識。這一輪的機器能力,你能夠利用到的概率就大爲降低。
······
篇幅所限,
本文内容僅爲課程十分之一。
點擊海報,前往APP看課!
時代的巨變有個好處,不管你多麽先進,多麽落後,在這個時代又拉平了。
微軟CEO Satya說的刷新,Hit Refresh就是此意,重來過一遍。在這一輪的技術潮流下,我們如何重新獲得定位?需要我們每一個人思考。
1. 沖着ChatGPT創新,等于拎包入住而沒有自己的地基
古人有一句話叫"聖人畏因,凡人畏果。" 有了理念、信仰、追求,才能産生結果,如果我們隻抓着結果,很容易隻見樹木、不見森林。
拿ChatGPT來舉例子。當我們看到這個技術結果的時候,要相信它不是從石頭裏蹦出來的。
2023年1月,微軟CEO Satya和Sam Altman(OpenAI CEO)的合照在網上很火,他們跟大家介紹了雙方的合作和技術的進步。但其實在2016年,雙方已經開始探讨了。
OpenAI的成長,也是在不斷摸索的。大家可以看一本書,《深度學習革命》,以OpenAI這批人爲代表的深度學習實踐者和探索者們,怎樣從當初對谷歌人工智能産生一些擔憂,到成立這間公司。一切都是有脈絡可循的,是幾十年的摸索、試錯,才走到今天這一步的。
如果我們沖着GPT的模型去了,從創新的角度來講,我把它稱之爲拎包入住。
大家想象一下,一片未開墾的土地,長滿雜草茂木。但有人把它開墾出來了,又根據土地的特點,設計出人類能夠居住的房屋,把樓給造起來了,再找一些設計師精裝修。最後招商引資。
這時我們都看到了趨勢,發現隻要找個50層以上的公寓房做生意就能夠大賺特賺,就拎包入住了。當時确實大賺特賺了。但若幹年之後,文明變了,潮流變了,50層以上的房屋不受歡迎了,你怎麽辦?
OpenAI有很多算法,很多工具,它曾經在機器人上投資,現在有人去看它的機器人嗎?ChatGPT隻是它在衆多的嘗試中,湊巧發現了一條路可以往前走。你要跟着它這條路走,有點像守株待兔,認爲兔子永遠會撞在這棵樹上。
我認爲,其實各位可以在這一輪,去看OpenAI的理念,最早這些人是怎麽想的、怎麽做的、願景是什麽。
2. ChatGPT的冰山下面是什麽?
如果說我們看到了冰山一角,下面是什麽?
拿ChatGPT舉例,它下層有兩類支柱,産物、産出它的人。别隻關注ChatGPT或GPT4,去看更深層的東西。
一方面是大語言模型,賴以沉澱人類所有的知識,或者是能夠被它學習到的所有知識的機制。是Transformer/RNN/CNN/LSTM,是用數學的方式,表征物理世界和人類知識與行爲的特征。
另一方面,OpenAI,也是由人構成。公司就是由一批志同道合者構成的一個組織,去完成一個共同的願景,共同的一個目标。
這些人才是一批有科學修養的,又有工程實現能力的,又對語言學、計算機科學的第一性原理有深刻理解的。更關鍵的是,有一個共同的理想,堅信做這件事是對的,是有用的。
其實有很多人正因爲OpenAI所謂的成功,反而離開了,因爲覺得願景不一樣了。這是它的人才特征。
人才特征的背後又是什麽?容錯、合作、開放的文化,不拘一格降人才的用人風格,配合的風格,彼此交流的風格。
如果我們連辦公場所都嚴格要求,老闆、員工分級坐,等級森嚴,是很漠然的群體,有可能做成這件事嗎?
我自己也是管理者,感觸還蠻深的。各個企業的文化真的不一樣。有開放的、有封閉的、有嚴厲的、有寬松的、有說一套做一套的,有說知行合一的,所處的行業特征,社會的氛圍也真的是不一樣的。
錯誤是成功的前提條件。你公司的環境,整個的社會大環境,允許不允許這種容錯文化的出現?
所以有些人問我,咱們應該怎麽做ChatGPT?
我說如果你要做一個ChatGPT,個人的建議,還是别玩這個遊戲了。就像是打冰球,追着冰球打太難了,你最好天天求什麽?求前面沒人打了。但那時,新的賽道又開出來了。天天在說彎道超車,等你真超過去才發現,前面已經沒車了。
新開辟一條道路,需要建立這種環境,建立這種文化,培養這種人才,這才是最基本的。Sam Altman那批人就是堅信大模型大力出奇迹,就能夠表征人類的知識,就這麽簡單。
3. 通用人工智能(AGI)
通用人工智能(AGI)是他們的追求。OpenAI會爲之付出無窮的努力,不懈的追求,直到證明它絕對不行了。隻不過,很巧它成了。但就算在AGI上,大家的關注點,也都各有側重。
20年前谷歌剛成立的時候,隻是個搜索引擎。你會感到很無厘頭,一個搜索引擎,爲什麽把不作惡作爲标準?現在大家明白了吧,在一個"比真還真的時代",給你的信息當然可以作惡。
AI也一樣。微軟明确指出要做負責任的AI,谷歌說的叫不作惡。OpenAI提出UBI,全民基本收入(UBI,是指"無條件"地爲所有個人定期發放一筆現金收入)。
Sam Altman在采訪中說,需要新思想回答的三個問題是:如何分配通用人工智能産生的利潤?如何分享通用人工智能的訪問權?如何分擔通用人工智能的治理權?
大家想一想,爲什麽Sam Altman想到了這三個問題?
還是因爲AGI一旦推出來,大家馬上就會發現,它的能力太大了,如果不能讓人類在這三個問題上達成共識,有人賺便宜、有人吃虧,就産生動蕩的因素了。AGI帶來的這些議題,需要我們去了解。
4. 有些議題其實已經被思考100多年了
建議大家看一下《大都會》這部電影。它1927年上映,到現在馬上100年了,你會發現,我們幾乎在重演曆史。
它出現了三個文明的特質:
1)無用的機器。出現了過度設計的無用的自動機。仔細想一想,它每一個理念,每一個精巧的激發過程和動作,是不是我們現在人工智能、機器人的思想的底蘊?
那麽,我們有沒有可能在不接受,甚至排斥"無用的自動機"前提下,鼓勵工程師,孩子們去創造出這種自動機的文明?當不被鼓勵、允許時候,他們有沒有可能去做自動化的事兒?
我再舉個例子,我們這個文明是不接受多米諾骨牌有任何價值的。但實際上,多米諾骨牌跟無用的自動機,背後都有一個隐含的、對于自動機的一種強烈的發自内心的追求。人工智能沒成功前的所有投入,都是無用的自動機。這就是我們要深思的。
2)魔法師的學徒。名字來源于歌德的戲劇,它在全球技術領域經常被引用,說人類在開創一些魔法式的技術,但魔法需要被制衡,開啓魔法以外,要會關。
3)精靈寶瓶。你不但要關掉魔法,還得把它收回去。留在世上可能也會有問題。
《大都會》結尾有一句經典名言,說在負責思考、籌劃的大腦跟執行任務的雙手之間,必須有一個調節者,這個調節者必須是人心。
我想說,當你爲ChatGPT激動不已,腦補着很多東西的時候,有些議題其實已經被思考100多年了。而且,還沒有定論。一兩百年過去了,大家仍然在探讨自動機的普遍流行造成的後果,和相應的人文上的制約。
這就是蓋子揭開之後,人類所面臨的話題。這是遠比所謂的人工智能奇異點,更宏大、更深刻、更嚴峻的話題。
······
篇幅所限,
本文内容僅爲課程十分之一。
點擊海報,前往APP看課!
人和機器的關系是什麽?比較理想的狀況,是由機器彌補人類的弱點。那麽,首先機器的優點、弱點是什麽?人類的優點、弱點是什麽?我們知道嗎?
第二,人類怎麽指揮機器?機器怎麽能夠被指揮?怎麽能夠不被指揮?我們考慮過嗎?
第三,教學相長。我們要明白它是怎麽學的,才能明白怎麽去教它。
這點我特别希望想跟大家強調一下。否則,我們會誤以爲機器真能憑空學到知識。
上圖中有幾個機器智能的關鍵詞,表征、映射、記憶、應用、學習。
圖中還有從GPT4官方網站上取的一句話,這是它對GPT4的定義。我們把GPT4開發出來,就是讓它去解決困難的問題,靠什麽呢?靠形成的通用知識。
問題是輸入,映射能力就是這種函數關系,産生的結果就是問題被解決掉了。
我認爲它說得恰到好處,沒有說什麽特别花哨的東西,就是由一種知識去解決一種問題。知識是橋梁,問題是輸入,把問題解決了是結果。
如果再優化,這三個等式。
第一個公式在描述什麽?這是一種映射。即通過輸入的變量,在一定參數的配置下,産生你要的Y。
第二個公式:這個Y是永遠不可能完全滿足你的。所以怎麽辦?理想的Y,減去每次産生的Y,産生一個偏差。
第三個公式:你接下來要做的事兒,就是不管用什麽樣的算法,把偏差最小化。
我們如何用機器?不就這三件事兒嗎?
你作爲一個人,是不是同樣也在做這三件事兒?也要根據你的X和Y搭建一種函數,一種能力,也要去配置參數?每次你的Y也會因爲一些小細節,比如這個月的銷售漲了,産品的次品率低了,跟你的理想值之間出現偏差,你也要想辦法把偏差減到最小。
明白機器的做法,你就能知道,我們應對的是怎樣的時代了。
2. 機器的祛魅與魅化
如果再剖開來看,我今天不是在講技術的細節,而是在講它的祛魅。
我們給ChatGPT披了一張畫皮,呈現出一個智者的形象。想象一下,ChatGPT是一個狐仙。我問,它答,你會覺着它是一個神人。但把這畫皮一揭開,原來你提出的問題,就是一段指令,你還會覺得很神奇嗎?
你還會對它有任何的人性化的連接嗎?你還會覺着,它要把我的工作代替掉了嗎?你覺得,是它把你的工作代替掉,還是它所賦能的一個機器或一個人把你的工作代替掉?
我們讨論了給它祛魅,它有被魅化的可能嗎?如果基于你喜歡什麽,會對什麽産生情感的共鳴,如果我想給你造成一種它具有人性或神性的印象,也是可以做到的。
比如,給一個機器人取名叫歡歡,或者取一個讓你感覺到很親切的名字,或者讓機器的表達去模拟人的方式,讓你産生情感的綁定。你覺着有多少人能夠受得了這種感情的誘惑?
也就是說,我們的決定和共識,會決定我們的下一代,決定我們自己怎樣看待機器,是祛魅化?還是妖魅化?
這點并沒有達成共識,甚至沒有人去談這件事情。
在英文的語境下的Robots,bots,中文居然把它翻譯成機器人,自然地就把它向人靠了。實際上Robots和bots沒有任何的"人"的含義。
我們這個文明,是否需要主動地把這種機器能力,用語言的方式,用形象的方式,用各種各樣的方式,把它跟人連在一起,這是不是走得有點太大了?這也是一個問題。
3. 機器是不理解概念的,機器理解的是概率分布
再給大家舉個例子,我對ChatGPT提出了一個問題:"我想去中國旅遊,我從來沒去過,那裏的哪座雪山值得去看看?"
它回答說,"我無法判斷雪山的美麗程度",爲什麽ChatGPT給出了這樣一句答案?這句話相對來講,很符合人性。
但實際上機器怎麽理解的?美字之後,好、妙、麗,各有概率的計算值。其中麗字的概率值最高,所以它就選了美麗。接下來呢,又有幾個字備選。程、景、心,在人類的語言中也都和美相關,比如美麗程度,美麗景色,美麗心情。機器發現"程度"兩個字概率更高。
最後它是自然就選擇了"度"字了嗎?不是的,度字概率最高,所以這句話就出來了。如果你前面問的問題是《三體》的主角是誰,八成它會選擇,心。
我們認爲它很完備,懂人話,說人話。但你發現沒有?人跟機器的理解是不一樣的。如果我們不知道這一點,就被它魅住了。一旦被它魅住,你很難成爲它的主人。
所以,你要明白這一點。
其實機器是不理解概念的,機器理解的是概率分布。語言,每一個字的出現,都是有概率分布的。它的答案是基于概率的一種推理,不是概念的推理,這一點我們務必要明白,這是祛魅的一個必要條件。Sam Altman(OpenAI CEO)能夠堅定信念,其實是因爲他對語言的特征,有深刻的理解。
你覺得機器像人對吧?其實我要說,是我們太不像人了,所以才認爲機器像人。何以爲人?尤其是當我們知道自己有那麽多的誤區、偏差之後,如何去彌補、防範思維誤區和偏差,讓我們做得像個人?這是遠比AI會不會代替掉人,更核心、更本質的一句話。
越是紛紛擾擾,越要守住第一性原理。這個時代,門開了一道又一道,但外界其實一直這樣,是有風險的,隻是我們沒有跳出舒适區。
4. 我們應該用AI幹什麽?
下圖是微軟的數字化智能反饋鏈,現在特别出名。基本概念是,幫我們建立起跟世間所有的對象的實時連接。知道它的狀态,反饋回來,進行優化,進行完善。
可以理解成什麽呢?無處不在的智能、計算、感知、決策。但實際你看,除了中間寫了Data AI,其餘圓圈裏,寫的都是我們日常的工作、學習、生活。
我想強調的是,AI是幹什麽的?它跟上一世紀出現的電的特點是一樣的,應該是無處不在,通過建模仿真來進行計算和優化,用機器能力去賦能、幫助和完善我們的每一個過程。
但如果喪失掉了人的主觀能動性,如果沒有人的約束、制約、控制,沒有負反饋,全是正反饋,可能讓它自激了。它可能會在瞬間用掉地球的資源,理論上講是可以達到這種情況的。
所以就算是GPT,它也經過培訓,人是在決策鏈裏面的。GPT這樣已經有很多知識沉澱的模型,能夠被使用,也是因爲人的主觀能動性在繼續發揮作用。
明白這個道理之後,你會發現實現起來沒那麽複雜。
OpenAI跟微軟合作,現在開放的這四個功能,你發現沒有,嚴格意義來講,都不會被普通用戶使用到。
我們用到的是什麽?是被它這種能力賦能的,所加強的,一種工作的性質和内容。
所以雖然OpenAI的技術很先進,微軟也在大力地推動,我們追求的不是ChatGPT或GPT,而是整個的一個系統觀,是Azure AI。Azure AI裏面有除了OpenAI以外的很多功能,有很多技術的同步的實現。
如何面對這個時代?
1. 三個關鍵詞
有三個詞可以供大家參考——"煤氣燈下"、 知識"肥胖症"、知識"智子"。
煤氣燈下。Gas Lighting是2022年,韋伯字典的全球熱詞,是上一世紀40年代一部電影的名稱。電影講述了,一位先生想謀取他太太的财物,一直在給太太洗腦。電影用蒙太奇的手法,煤氣燈搖搖晃晃,讓人感覺到眩暈,感覺到不确定。它爲什麽變成全球熱詞了呢?因爲現在機器生成的虛假消息和錯誤消息,就如同搖晃的煤氣燈,讓我們失去了對什麽是真實的客觀判斷。
知識肥胖症。我們都知道,垃圾食品可能會帶來身體肥胖。但是大家想一想,每天我們通過手機,看了多少知識快餐?
扪心自問一下,我們消化得了嗎?我們的大腦,沒法去理解,也沒法記憶,就是不斷吞下很多信息。帶來了大腦的虛假連接,每個連接都是耗能的。我們天天在消耗那麽大的能量,但由于知識沒有重複,其實什麽也沒記下來。
那麽,我們是願意沉浸在知識的恐懼症中,覺着不學要落伍,還是願意理解能力的局限或者約束,來學我們能夠消化的知識?這一點,能夠決定我們的生活素質的高低。
知識智子。算法機器,是把人類知識吃進去,消化,把它變成精華提煉出來。如果你沒有不斷給它進入新的知識,或者說,新的知識也是這個引擎産生出來的,大家想象到結果了嗎?
它就變成了一個正反饋,就像狗咬尾巴一樣,不斷在打轉,不斷地去精華同樣的知識。一開始,可能會有一些所謂的湧現現象,但我覺得,如果你不給它添一些額外知識,機器轉得又快,越來越壓縮,你會看到這個模型好像越來越小,越來越精練,越來越有用,但實際上它的知識固化了。
類似于《三體》裏的智子,是一種源頭上的約束,讓新的知識無法産生。
這種情況不一定出現,但是有這樣的隐憂。它是受機器能力本身所局限,尤其當我們人類不加約束去運用的時候,就會出現這種情況。
2. 文明這個話題很關鍵
提煉知識的算法是沒有文明的,但你給它供給的原料是有文明的。我們要給這種技術以文明,我們的文明,讓它能夠沉澱下來,爲我們所用。
文明這個話題很關鍵,我拿幾張圖,給大家展現一下,還是蠻發人深思的。我在中文語境下,試了一些關鍵詞,讓我很警醒。
"開心的農民在廣闊的農田裏駕駛着拖拉機收割。"你覺着機器在中文語境中應該給你什麽樣的圖片?
我又試了一些詞彙,當我想讓它産生出一個我希望跟我的文明相吻合的圖像時,它産生的是這樣的圖像,不能說它錯誤,是說它跟文明的背景不兼容。
我有點着急,好歹給我出點跟中國相關的形象吧?所以我輸入了語文老師,符合中國的文化特點的語文老師。
你看它給我産生一個什麽形象。一個非常古舊的、傳統的、沒有現代化文明特征的一個語文老師的形象。但我們中國的語文老師有這麽古老嗎?他們是不是也在用計算機,穿現代化的服裝,在給一幫活潑的學生在講課?
在算法界,這叫做語料的偏差和偏誤。今天我一直在跟大家講的,不是算法,要比算法大得多。文化、文明的傳承之前要提煉,沉澱下來,讓我們的下一代,包括我們自己,能利用這種知識的沉澱來幫助我們。
我們希望什麽樣的工具,什麽樣的提煉是适合我們的需求的,這是值得我們每一個人警醒的。這是對我們每個人的自勉。
人類還會不會向前走?一定會向前走的,但是對文明的貢獻,對知識的貢獻,它是由機器去提取的。
機器如何提取你的文明、你的知識,變成它整個的知識海洋中的一滴水、一瓢水或者一汪水,機器有它的算法,有它的價值觀,有它的方法論,我們怎麽應對?這也是需要我們每個人去考慮的,它關系到我們所在的組織,将來如何利用機器所提取到的知識。
初看是技術,細看全是人的問題。
再一細看,全是思想的問題。
我們現在最麻煩的思想問題,就是總想在确定性已經消失的時代,還試圖找到确定性,而不是去适應不确定性,來應對不确定性的挑戰。
我們經常問,哪些人類工作會受到機器影響?你或許應該問,哪些人的工作不會受到機器的影響?那個答案的圈可能會很小。
每一個流程,每一個動作,每一個人,每一個物,都會被這種能力所賦能。賦能表現形式是什麽?建模、映射、仿真、計算、優化、反饋回來,賦能你的物理世界。
所以,再回頭講,動蕩時代最大的風險真的不是動蕩本身,是什麽呢?是我們企圖用昨天的邏輯應對這個時代的挑戰。彼得·德魯克早就說出來了,到現在仍然适用。
······
篇幅所限,
本文内容僅爲課程十分之一。
點擊海報,前往APP看課!
知道爲什麽嗎?在小說中,人類曆史出現過一件什麽事?巴特勒聖戰,有一個種族,特别熱衷于機器能力,發明了很多人工智能和智能機器人,而且把機器能力用在了戰争上。開始大家不在意,結果越做越先進,這個反噬差點把人類都給滅掉。
爲什麽這本小說在西方影響那麽大?沖的不隻是機器,是機械的價值觀。
下面這一段的話,是主角的導師跟他講的,"你就是用了太多的機器能力,結果居然忘了在沙漠裏要戴上面罩。"主角跟導師說,那你怎麽不提醒我?導師說,就是因爲你過于依賴機器的提醒能力,把你自己的人的能力都喪失掉了。
我們面臨的是一個偉大的時代,而且大概率在不知不覺中已經跨入了這個偉大的時代,已經是其中一份子了。
那麽怎麽辦?Don't Panic,不要驚慌,别擔心,别着急。爲什麽?
對機器能力的過度恐懼,實際上是對人類,對我們自己主觀能動性的極度自卑。我們高估了我們記憶的作用與知識的難度,卻低估了我們思想的深度,和人的主觀能動性。
但要保住人類的主觀能動性,還要花一些心思去理解現代化的機器的能力,成爲機器的主人翁,也就讓自己更有可能性,有更大的概率,進化成新一代的人類。
下一節課,我會跟大家一塊兒再共同探讨,在這個新的人機時代,如何做一個與時俱進的、适應複雜變化的人。
······
篇幅所限,
本文内容僅爲課程十分之一。
點擊海報,前往APP看課!