2021 年初,當一位維基百科(Wikipedia)的編輯首次試用 ChatGPT 3 時,他發現這個語言模型錯誤百出——它會随意編造事實,胡亂引用文章。但同時,他也意識到了這個工具的巨大潛能,并深信在不久的将來,它将取代他深愛的維基百科。這位編輯爲此寫下了一篇名爲《維基百科之死》(Death of Wikipedia)的文章。
© Mashable
如今兩年的時間過去了,ChatGPT 已經更新到了版本 4;維基百科也在今年 1 月度過了自己 22 周歲的生日,那麽,二者目前究竟存在一種怎樣的關系呢?
新聞記者、作家喬恩 · 格特納(Jon Gernter)深入探讨了這個問題,并發表文章:《真相時刻:維基百科會不會在協助智能聊天機器人不斷完善的過程中自取滅亡?》(Moment of Truth:Can Wikipedia help tech A.I. chatbots to get their facts right — without destroying itself in the process?)
回顧維基百科的曆史,我們仿佛回到了網絡的黃金年代:那時候,每個人,隻要能聯網,就能免費學習和分享所有人類的知識。
現如今,維基百科上的文章總數已經超過了 6100 萬篇,由 334 種不同的語言書寫。它長期在訪問量最大的網站排行中榜上有名,并且,與同樣上榜的 Google、Youtube 與 Facebook 不同,維基百科始終拒絕任何廣告,隻通過接受捐贈獲取資金。
此外,它所有的貢獻者都不收任何報酬——而這個群體保證了每分鍾 345 次的編輯量。
如今的維基百科早已不僅僅是電子版的百科全書,而成爲了将整個數字世界粘合在一起的知識網,爲人們提供了一個可靠的信息來源。我們從 Google/Bing/Alexa/Siri 上搜索、了解到的知識大部分都來自維基百科,油管也使用維基百科來打擊謠言。
而智能聊天機器人當然也不例外,在其接受訓練的過程中,維基百科起到了至關重要、甚至可能是最關鍵的作用。
西門菲莎大學(Simon Fraser University)的研究員尼古拉斯 · 文森特(Nicholas Vincent)認爲,沒有維基百科就不可能有強人工智能,但他也認爲,ChatGPT 一類大語言模型的流行可能會導緻維基百科的消亡。
在今年 3 月召開的一次大會上,人們探讨了人工智能對維基百科帶來的威脅。編輯們的心情是喜憂參半的:他們既認爲人工智能可以協助維基百科快速發展,又擔心人們會越來越傾向于選擇 ChatGPT 而不是維基百科來回答問題——比起維基有點兒古闆生硬的詞條,ChatGPT 的回答顯然更通俗易懂、自然流暢。
基于大會探讨的結果,一個共識性的呼籲是:" 我們希望身處于一個全部知識是由人類生産和建構的世界。" 但現在,是不是已經有點太遲了呢?
其實,早在 2017 年,維基媒體基金會的社群及其志願者就在探讨如何進一步發展,在 2030 年實現永久性保存、分享世界知識。彼時,他們就注意到了人工智能的出現是如何改變知識的收集、組合和整合方式的。
維基百科在發展過程中遇到的挑戰
除開維基百科,如今的大語言模型還廣泛吸收來自 Google patent database(谷歌專利數據庫)、政府文件、Reddit 上的問答、線上圖書館以及海量的線上新聞作爲信息來源;不過,西雅圖艾倫人工智能研究所(Allen Istitute for AI)的計算機科學家傑西 · 道奇(Jesse Dodge)認爲,維基百科的貢獻是無與倫比的,這不僅是因爲它在用于培訓大語言模型的數據總量中占到了 3%~5%,更因爲它是最大的、最經過精心篩選的數據庫之一。
如今,維基百科的編輯們就 AI 與維基百科關系的熱烈讨論,有點兒類似 10 年之前,他們就谷歌和維基百科之間關系的探讨,那時候的結論是,谷歌和維基百科互惠互利,和諧共生:維基百科使得谷歌成爲了更好的搜索引擎,而維基百科也從谷歌那裏獲得了大量的流量。
當然,與谷歌及其他搜索引擎保持緊密關系,也給維基百科帶來了一些存在危機:要是問谷歌,俄烏沖突是怎麽一回事?它會引用并簡要總結來自維基百科的文章内容,而讀者往往更喜歡谷歌的答案,而不會去順藤摸瓜閱讀背後超過一萬字并帶有 400 個腳注的維基文章。
進一步,這會導緻普通人過于簡化理解我們的世界,也會影響維基百科招募到年輕一代的内容貢獻者。
2017 年的一項研究表明 [ 1 ] ,人們對維基百科的訪問量确實在下降。而且,智能聊天機器人的出現更是加速了這一進程。
維基媒體基金會機器學習研究小組的帶頭人阿隆 · 哈爾法克(Aaron Halfaker)表示,搜索引擎在提供簡要答案的同時至少還會貼出來源鏈接,幫助人們回到維基百科的頁面;而大語言模型隻會把信息整合成流暢的語言,沒有引用、沒有依據,人們無從知曉答案的來源。這使得人工智能成爲維基百科更難纏的對手——它可能更有害,而且很難與之競争。
維基百科自身的缺陷及解決措施
當然,維基百科遠不是盡善盡美的:首先,在 4 萬名活躍的英語編輯中,有 80% 是男性,75% 是美國白人男性,這導緻維基百科在性别和種族方面的内容存在一些偏差。
其次,維基百科的文章可信度也不是穩定不變的:佐治亞理工學院(Georgia Institute of Technology)的教授艾米 · 布魯克曼(Amy Bruckman)認爲,在維基百科上,一篇經過上千人編輯的長文質量相當有保證,而一些短文卻很可能出錯甚至完全是垃圾。
© Wikipedia
這使得編輯需要曠日持久地與謬誤作戰:其中有經驗的會出手編輯包含一些缺乏事實依據或無法驗證真假的文章;此外,在編輯守則中,内容編輯也被要求保持 "N.P.V.O" ——即 "Neutral Point of View"(觀點中立)。
人工智能工具的問題及解決方案
與之相對,對于智能聊天機器人來說,追尋真理之路甚至更爲艱險 [ 2 ] :就像 ChatGPT 會随意編造事實,胡亂引用不存在的文獻(術語叫 "hallucination" 虛假信息);會過度簡化一個複雜事實,例如分析俄烏沖突;也會亂給醫學建議 ……
今年 4 月,斯坦福的科學家檢驗了 4 種内置 AI 工具的搜索引擎:Bing Chat,NeevaAI,perplexity AI 和 YouAI,發現它們生成的答案隻有差不多一半能經得起事實的檢驗 [ 3 ] 。
© MobileSyrup
這是爲什麽呢?原因很簡單:聊天機器人的目标不是追求絕對的真理或準确性,而是盡量根據給定的上下文和概率來産生合理的回答 [ 4 ] 。這種選擇可能基于統計數據和語言模型,因此不是百分之百準确的。
難道答案的準确性不應該是研發、培訓智能聊天機器人的公司首要追求的目标嗎?對于公衆來說,這幾乎是個毋庸置疑的問題。然而,據計算機科學家、前谷歌研究員瑪格麗特 · 米切爾(Margaret Mitchell)爆料,在目前商業競争白熱化的階段,比起真實可靠,公司更在意盡快向公衆推出旗下的 AI 産品。(順帶說一句,米切爾正是因爲批評谷歌在這個領域研發方向的問題而被解雇的。)
不過,米切爾也相信前景是光明的,她已經看到使用優質信息接受訓練的模型在提高準确性方面顯著的提升。隻是,目前 AI 産品的數據訓練方法是 " 放任自流 " 式,即不管好的壞的就把盡可能多的信息喂給模型,設想是輸入的信息越多,輸出的信息質量就越高;而不是反過來——全部輸入優質信息,得出優質信息。
此外,市場競争也有助于智能聊天機器人的自我完善,例如,OpenAI 與許多商業公司都有合作關系,這些公司非常注重答案的準确性。另外,谷歌公司研發的人工智能系統與醫學界的專家保持了緊密合作,進行疾病診療方面的探索。
相較以前的版本,ChatGPT4 在提供涉及 " 事實内容 " 的回答時已經有了顯著進步,不過,離它能準确地回答複雜的、多層面的曆史問題,還有很長的路要走。對這樣的智能聊天機器人來說,準确性與創造性、流暢性之間永遠存在着張力。而開發的目标,絕不僅僅是讓它們能 " 反刍 " 接收知識,而是需要看穿知識的模式,并用通俗易懂的語言告訴使用者。
目前二者的合作現狀
6 月底,記者試用了維基媒體基金會爲 ChatGPT 開發的插件。
ChatGPT4 目前擁有的全部知識截止于它受訓結束的時間:2021 年 9 月;而這個插件可以讓它接觸到迄今爲止的所有信息:這使得用戶可以同時享受到這兩種工具的帶來的便利:來自維基百科的知識具有準确性和時效性,而智能聊天機器人能用流暢、自然的語言将其輸出。同時,ChatGPT 也會列出信息來源——維基百科的頁面。
維基百科也在内化一些人工智能模型,以更好地幫助新用戶,或協助編輯工作。但目前,維基的社群還是比較抵觸完全由人工智能編輯的文章;而編輯們也非常擔心,面對強大的無休無眠的對手,面對能瞬時生成海量内容的人工智能,人類編輯在内容審核方面付出的努力是否隻是螳臂擋車,終會一敗塗地。
按照目前的情況來看——任何站到人工智能對立面的舉動都是不理智的,一個很可能出現的場景是:像維基百科一類的組織必須努力适應由人工智能創造的未來才可能得以存續,而不是妄想對其施加影響甚至出手阻攔。
當然,許多接受采訪的學者和維基編輯也認爲,人工智能制霸之路不會是摧枯拉朽的,它将面臨重重阻礙:
首先是社會性的:歐盟議會目前正着手制定一系列法律條文和規章制度,來規範對人工智能産品的使用:例如強制科技公司标明由人工智能生成的内容;公開人工智能受訓的數據;以及标明信息來源,不可未經授權盜用其他網站、數據庫資源等。
其次是技術上的。事實上,文章一開篇已經強調,如果沒有維基百科、Reddit 社區提供的海量數據,大語言模型根本無從接受訓練,而人工智能的研發公司完全清楚這些數據庫的重要性,這就給了維基百科等網站一些談判的籌碼。
此外,今年 5 月底,一些人工智能研究員還合作發表了一篇論文 [ 5 ] ,探讨新的人工智能系統是否能隻靠人工智能模型生成的知識來發展自身,而完全不使用人類生成的數據庫接受訓練。結果,研究者發現這會導緻一種系統性崩潰——稱爲" 模型崩塌 "(Model collapse):使用人工智能合成的數據可能會導緻混亂,因爲它們可能不準确或不真實,進而會對下一代模型的訓練數據集造成負面影響,使其對現實世界的認知産生偏差。
而維基百科的插件可以避免這一情況發生,但如果在未來,維基百科上充斥着由人工智能生成的文章,那麽問題同樣會産生:新一代的語言模型會陷入自說自話循環論證的狀态。
最終,這項研究證明了,真人交互産生的數據的價值對未來大語言模型的發展不可估量,這對維基百科的編輯們來說是個振奮人心的消息。至少一段時間之内,人工智能還需要我們,需要我們人類讓它變得可信而有用。
不過,這又涉及到一個叫做 " 結盟 "(alignment)的理論概念,即假設人工智能符合人類最大的利益。保證人工智能與人類站在同一邊,既是巨大的挑戰,也是研發人工智能的首要任務。
而真人的好處是,人性使得人類天生就具備一些形成同盟的條件:例如一些人樂于分享高質量的教育資源的動機,恰好符合另一些人的需求。作者最後采訪了一位維基百科的英文編輯傑德(Jade),她提到知識分享是自己的人生信條:她每周會固定花 10~20 個小時編輯維基百科。
目前,她緻力于編輯一條關于美國内戰的條目,其一年的閱讀量已經超過了 484 萬次,她的目标是繼續完善這篇文章,直到獲得維基百科 " 精選 " 的認證——這是一種極爲珍惜的認證,在維基百科的英文版中,僅僅有 0.1% 的内容有資格得到這項認可。
最後,記者問及傑德是否認爲人工智能會完全取代她的工作,傑德回答,她是個樂觀主義者,相信至少在本世紀内,機器人不會完全替代人類來編輯維基百科。
然而記者本人就沒有這麽确定了,畢竟,根據他自己與 ChatGPT 聊天的經驗,盡管在信息交換的準确性和細節方面人工智能做得還不夠完善,但人機交互的體驗已經足夠吸引他了,一切都是如此輕松。