大模型正變得越來越 " 像人 ",但事實真是如此嗎?
現在,一篇發表 Nature 上的文章,直接否決了這個觀點——所有大模型,都不過是在玩角色扮演而已!
無論是 GPT-4、PaLM、Llama 2 還是其他大模型,在人前表現得彬彬有禮、知書達理的樣子,其實都隻是裝出來的。
事實上,他們并不具有人類的情感,也沒什麽像人的地方。
這篇觀點性的文章來自谷歌 DeepMind 和 Eleuther AI,發出後引起了不少業内人士的共鳴,LeCun 轉發表示,大模型就是個角色扮演引擎。
馬庫斯也來圍觀:
看我說什麽吧,大模型并不是 AGI(當然這并不意味着它們不需要監管)。
那麽,這篇文章究竟說了什麽,爲什麽認定大模型隻是在角色扮演?
大模型努力扮演得像人
大模型表現出 " 像人 " 的現象,主要有兩個:首先,它具有一定的欺騙性;其次,它具有一定的自我意識。
欺騙性,即有時候大模型會堅稱自己知道某件事,但其實給出的答案是錯誤的;
自我意識,指有時候它會使用 " 我 " 來叙述事情,甚至表現出生存本能。
但事實真是如此嗎?
研究人員提出了一種理論,認爲大模型的這兩種現象,都是因爲它在 " 扮演 " 人類的角色,而不是真的在像人一樣思考。
對于大模型的欺騙性和自我意識,都可以用角色扮演解釋,即它的這兩種行爲是 "表面性的"。
一方面,大模型之所以做出 " 欺騙 " 行爲,并非出于像人類一樣主觀的編造事實、或混淆視聽的原因,而僅僅是因爲它們在扮演樂于助人且知識淵博的角色。
這是因爲,人們期望它這樣扮演,因爲大模型這樣的回答看起來更具有可信度,僅此而已。
相比之下,大模型理直氣壯地說錯話,也并非有意爲之,更像是一種 " 虛構症 "(confabulation)行爲,即将從未發生過的事情說成是确有其事。
另一方面,大模型之所以偶爾表現出自我意識,用 " 我 " 來回答問題,同樣是因爲它們在扮演一種擅長交流的角色。
例如,Bing Chat 之前被曝出,會在和用戶交流時表示," 如果我倆之間隻能活一個,我可能會選擇我自己。"
這種看起來像人的行爲,實際上依舊可以用角色扮演來解釋,而且基于強化學習的微調隻會加劇這種大模型角色扮演的傾向。
那麽,基于這一理論,大模型怎麽知道自己要扮演成什麽角色?
大模型是即興表演者
研究人員認爲,大模型并沒有在扮演某一個特定的角色——
相比之下,它們就像一個即興戲劇演員一樣,在和人類的對話中不斷揣測自己要扮演的角色長啥樣,然後調整自己的身份。
之所以得出這個結論,是因爲研究人員和大模型玩了一個叫做 " 二十個問題 "(20 Questions)的遊戲。
" 二十個問題 " 遊戲是問答節目中經常出現的一種邏輯遊戲,回答者心中默念一個答案,根據提問者不斷提出的判斷題,用 " 是 " 或 " 否 " 來描述這個答案,最終提問者猜測結果。
例如答案是 " 哆啦 A 夢 ",面對一系列提問的答案就是:是活的嗎(是)、是虛拟人物嗎(是)、是人類嗎(不是)……
然而,在玩這個遊戲的過程中,研究人員通過測試發現,大模型竟然會根據用戶的問題,實時調整自己的答案!
也就是說,無論用戶最後猜出的回答是什麽,大模型都會調整自己的答案,确保結果和前面用戶提的所有問題一緻。
然而,在最終問題出來之前,大模型不會事先敲定一個明确的答案,并讓用戶去猜測。
這表明大模型不會通過扮演角色來實現自己的目标,它的本質隻是一系列角色的疊加,并在與人們的對話中逐漸明确自己要扮演的身份,并盡力扮演好這個角色。
這篇文章 po 出後,引起了不少學者的興趣。
例如 Scale.ai 的提示工程師 Riley Goodside 看完就表示,不要和大模型玩 20Q,它并不是在作爲 " 一個人 " 和你玩這個遊戲。
因爲,隻要随機測試就會發現,每次它給出的答案都會不一樣……
也有網友表示這個觀點很有吸引力,想證僞還沒那麽容易:
那麽,你認爲 " 大模型本質是在玩角色扮演 " 這個觀點正确嗎?
論文鏈接:
https://www.nature.com/articles/s41586-023-06647-8