編譯 | 吳浪娜
編輯 | 漠影
智東西 9 月 15 日消息,AI 聊天機器人在破除陰謀論上取得重要突破,能有效削弱一些信衆對陰謀論的笃信程度,論文登上 9 月 13 日的國際頂級學術期刊 Science 封面。
很多人對陰謀論深信不疑,緻使一些荒謬謠言層出不窮。麻省理工學院研究團隊發現,GPT-4 Turbo 模型可以在對話中通過量身定制的呈列證據、個性化的深度聊天,将一些陰謀論者對陰謀論的信任度平均降低 20%,且效果持續了至少 2 個月。這種幹預說明了負責任地部署生成式 AI 有助于辟謠和緩解沖突。
論文題目爲《通過與 AI 對話持續減少相信陰謀論(Durably reducing conspiracy beliefs through dialogues with AI)》。
▲論文内容截圖(圖源:Science)
論文鏈接:https://www.science.org/doi/10.1126/science.adq1814
一、足夠有力的證據是否能說服人們放棄陰謀論?
無論是關于月球登陸從未發生過的錯誤觀念,還是關于新冠疫苗含有微芯片的虛假說法,陰謀論比比皆是,有時甚至會産生危險的後果。對未經證實的陰謀論的信任是大衆關注的重要議題,也是學術研究的焦點。
盡管這些陰謀論往往非常不可信,但仍有許多人選擇相信。著名的心理學理論認爲,許多人想要采用陰謀論以滿足潛在的心理 " 需求 " 或動機,因此他們很難被事實和反證據說服,來放棄這些毫無根據的陰謀論。這篇論文對這一傳統觀點提出質疑。是否有可能用足夠有力的證據說服人們走出陰謀論的 " 無底洞 "。
" 傳統觀點會告訴你,那些相信陰謀論的人很少會改變他們的想法,哪怕是根據證據。" 論文的第一作者托馬斯 · 科斯特洛(Thomas H. Costello)說。然而,這項新研究提供了不同的觀點。" 我們的研究結果從根本上挑戰了這種觀點:一旦掉入無底洞相信陰謀論,證據和論點就幾乎沒有用處了。" 研究團隊寫道。
二、與 GPT-4 Turbo 進行 3 輪對話,用證據駁斥陰謀論觀點
研究假設,基于事實性、糾正性信息的論據可能會顯得無效,因爲它們缺乏足夠的深度和個性化。爲了驗證這一假設,研究人員利用了大語言模型的進步,這是一種 AI,能夠獲取大量信息并生成定制論據。因此,大語言模型可以産生具有批判性思維的對話,直接反駁每個人所引用的支持其相信陰謀論的特定證據。
在兩次實驗中,2190 位參與者用自己的話闡述他們所相信的陰謀論,以及他們認爲支持這一理論的證據。這些信息被輸入到 AI 系統中。參與者還被要求以 100 分的标準來評估他們所相信的陰謀論的真實程度。
然後,他們與大語言模型 GPT-4 Turbo 進行了三輪對話,在我們的提示下,GPT-4 Turbo 回應了這些具體證據,同時試圖降低參與者對陰謀論的信任度。或者作爲對照條件,與 AI 就不相關的話題進行對話。對話結束之後,再次評估參與者他們認爲陰謀論的真實性。
▲參與者與 AI 對話的設計和流程,一共進行三輪對話。上圖展示一名參與者與 AI 對話後,其對陰謀論的信任度降低了 60%。(圖源:Science)
三、參與者對陰謀論的信任度平均降低 20%,效果持續兩個月
研究結果顯示,與 AI 讨論陰謀論的參與者對所選陰謀論的信任度平均降低了 20%。這種效果持續了至少 2 個月,絲毫未減。而那些讨論非陰謀論話題的人對真實性的評分隻略有下降。
研究團隊談道,在各種陰謀論中,都能持續觀察到這種效果,包括涉及暗殺肯尼迪、外星人和光明會的經典陰謀論,到與 COVID-19 和 2020 年美國總統大選等熱點事件相關的陰謀論。值得注意的是,AI 并沒有減少參與者對真實陰謀論的信任度。
▲與 AI 對話能持久降低陰謀論可信度,即使是堅定的陰謀論者也不例外。對話後參與者對所選陰謀論的平均信任度降低,效果持續兩個月。(圖源:Science)
研究人員補充說,效果的大小取決于多種因素,包括陰謀論對參與者的重要性以及他們對 AI 的信任程度。
" 有大約四分之一的參與者,在實驗開始時相信陰謀論,但在結束時不再相信。" 科斯特洛說。
" 在大多數情況下,AI 隻能逐漸削弱——使人們變得更加懷疑和不确定——但少數人完全擺脫了他們的陰謀論信任度。"
研究人員補充說,降低參與者對一個陰謀論的信任,也能在一定程度上降低他對其他陰謀論的信任。陰謀論世界觀普遍減少,并增加了反駁其他陰謀論者的意圖。這種方法在現實世界中可能有應用——例如,AI 可以回複社交媒體上陰謀論相關的帖子。
此外,一個專業人員評估了 AI 提出的 128 個樣本,其中 99.2% 是正确的,0.8% 是有誤導性的,無一虛假。
結語:專家質疑 AI 說服陰謀論者的實際應用
研究說明,陰謀論的 " 無底洞 " 可能确實有一個出口。心理需求和動機本質上并不會導緻陰謀論者對證據視而不見——他們隻是需要正确的證據。實際上,通過展示大語言模型的說服力,該研究既強調了生成式 AI 在負責任地使用時可能産生的積極影響,也強調了最大限度地減少不負責任地使用這項技術的緊迫性。
未參與該工作的劍橋大學教授桑德爾 · 範 · 德林登(Sander van der Linden)質疑人們是否會在現實世界中自願與這樣的 AI 互動。
他還談道,目前尚不清楚如果參與者與匿名人類聊天是否會得到類似的結果,同時也有關于 AI 如何說服陰謀論者的問題,因爲該系統還使用了諸如同情和肯定等策略。
但是,他補充說:" 總的來說,這是一個非常新穎且可能重要的發現,也是 AI 如何被用來打擊錯誤信息的一個很好的例證。"
來源:Science、《衛報》