吳晨 / 文 ChatGPT 如火如荼,讓人工智能再次成爲全球矚目的顯學。在數據保護和隐私上最爲保守的歐盟直接潑上一盆冷水,計劃更新即将出台的全面人工智能法規——《人工智能法案》,對生成式 AI 生成圖像和文本的智能模型制定規則。加強監管的出發點無疑是好的,但該如何監管 AI 是一個動态的過程,問題将伴随進步而生,絕非一則法案可以限定。
許多人把 ChatGPT 的橫空出世視爲又一個 iPhone 時刻,會對商業社會帶來一系列本質的變化。另一些人則認爲生成式 AI(ChatGPT 背後的技術)是新的 GPT,這裏 GPT 的意思是通用技術(general purpose technology)。此前蒸汽、電力、計算機都是劃時代的 GPT,也帶來巨大的改變,引發生産力革命,推動指數級增長,帶動廣泛投資。如果 ChatGPT 是下一個 iPhone,那麽監管也需要對未來它給商業和社會的本質改變有所預判,而不是簡單地對 GPT 的模型加以限制。
ChatGPT 至少有三方面的風險值得我們深入思考。
首先,它強大的内容生成功能是否會導緻假新聞泛濫?目前 ChatGPT 無法判斷什麽是真實,許多測試都顯示它能很自信地給出答案,卻不會确保答案的正确性。實際上,假新聞在全球已經是網絡惡疾,網絡上也沒有真實的标準,而且一旦從事實領域進入到認知領域,真實更需要定義,不同認知的人看待事物會明顯不同。GPT 的推廣必然面臨着事實審核的問題,誰來做?需要引入人的判斷麽?即使加入了人的判斷,也可能出現兩件情況:第一、人的判斷不一定準确;第二、機器很容易形成繞過人的(主流)判斷的能力。另一方面,GPT 的廣泛應用也會讓炮制假新聞變得更加容易,爲假新聞的泛濫推波助瀾。
其次,是否有堕入經驗主義的風險。ChatGPT 所依賴的自然語言模型把相關性分析推向極緻,卻無法真正生成因果性的邏輯思考,其結果仍然是知其然,而不知其所以然。目前來看,GPT 所生成的文本,本身就是訓練語料的平均數,在市場推廣、客服、銷售等應用場景中幾乎可以替代人力,但真正出彩的創造力仍然缺乏。換句話說,機器生成的語言仍然是對人類過往經驗的複刻,而不是真正的創新。GPT 的廣泛應用會生成平庸的海量内容,如果人簡單地依賴機器,一個可能的危險就是人類的思考和交流變得更加同質化,原創性的東西越來越少,人類在海量平庸内容面前甚至可能出現思維鈍化,思想的自由生長遭遇挑戰。相比較通用人類智能(AGI)取代人類的風險,GPT 帶來的同質化風險對人類而言更高。
第三,從第二點引申出來,也可能産生 AI-native(AI 原住民)的異化。00 後我們稱之爲數字原住民,因爲自從他們懂事就生活在智能設備的環境之中。以此類推,20 後可能是 AI 原住民。問題是,如果拟人式解答問題的小助理随處可在,他們從小就習慣 AI 給予的幫助,是否會失去了培養思考思辨能力的機會?在歐美,GPT 已經給教育體系帶來難題,以閱讀、分析、表達爲培養學生思辨能力的這套教育體系,很依賴學生通過寫論文來訓練他們的理解、總結和思辨能力。閱讀書的一篇章節、寫一篇讀書筆記、爲申請一所大學寫一篇論述自己志願的文章,是學生必備的技能。當 ChatGPT 可以讓寫作變得那麽容易,把知識的總結和組織變得唾手可得的時候,抓作弊,禁止學生使用 GPT 就成了不得之舉。但顯然,貓和老鼠的遊戲沒有意義。我們需要思考的是人與機器的差别到底在哪兒,教育需要如何改革以培養原創力。此外,AI 原住民如果從小就習慣于與人工智能作伴,是否會出現 AI 沉迷的問題?
伴随着技術的進步,問題會層出不窮。如果生成式 AI 會給人類帶來變革式的發展,那麽未來對它所帶來問題的讨論也将持續不斷,這樣的讨論最終都将圍繞着 " 人與機器的互動中,何以爲人 " 這一大命題展開。
(作者爲《經濟學人 · 商論》執行總編輯)