LeCun 現在是徹底不搞技術了???
最近他開始從社會科學的角度分析起了爆火的聊天機器人:
爲啥 ChatGPT 很容易就會胡說八道?
隻因它是外星人。
這是 LeCun 和專門研究 AI 哲學的紐約大學計算機系博士後在最新一篇論文中的觀點。
論文中提到的 " 外星人 " 是指從社會規範、自我約束等方面不同于正常社會人的指代。
(聽起來是有點子哲學意味在裏面的)
而文章中提到的觀點,可是引起了網友們的熱烈讨論。不少網友紛紛表示贊同:
說得太準确了。
那 LeCun 在論文裏具體都講了些啥?
一起來看~
ChatGPT 爲什麽不能像人一樣?
當然,要把 ChatGPT 這類聊天機器人和人放在一起比較,那就得先從人開始入手了。
第一個問題:
一般情況下,人爲什麽不會胡說八道,甚至說出一些 " 反人類 " 的話?
文章給出了三點原因:
(1) 社會規範:人們不僅要主動遵守外部社會規範,還要受到人體内在規範的約束。
(2) 懲罰違反者:這裏的懲罰更側重在社交層面的懲罰,違反交談規範的人容易遭到群體的 " 排斥 " 甚至 " 孤立 "。
(3) 規範已經内化于情感:違反規範時會憤怒,被冒犯會厭惡,被抓住說謊時會羞恥……
而基于這些原因,人們在講話之前都會自然而然過濾掉一些言論,以确保更符合社會規範以及自己的内在規範。
(嗯嗯。當代年輕人現狀:表面笑嘻嘻,内心 mmp)
反過來再看看 ChatGPT 這些聊天機器人。
相較于人類,它們講話似乎就更随心所欲,我們沒說出來的潛台詞它全說出來了。(Doge)
比如說,ChatGPT 的老毛病:胡說八道,最初提示詞稍微換個說法,就能讓 ChatGPT 寫出毀滅人類計劃書。
甚至還能生成一些帶有種族歧視的答案:
那麽第二個問題來了:
爲什麽 ChatGPT 不能像人們一樣遵守社會規範呢?
原因有三:
(1) 它不需要承擔違反社會規範的壓力,即使承認自己犯錯并道歉後,它也并未意識到原因。
(2) 它們沒有内在目标,它們的唯一任務就是交談。
(3) 它們更聚焦在當下的對話,脫離了更大的社會語境,根本不理解人類表達的方式。
在論文中,LeCun 更是直接指出:
ChatGPT 是 " 外星人 ",它根本就不理解并認同社會規範。
也就是說,ChatGPT 隻是爲了交談而交談,而人類在互相交談時是有社會文化驅動的。
網友讨論
LeCun 的這一通從社會科學角度的分析可是引起了網友們的激烈讨論。
一邊,網友們對 LeCun 的分析啧啧稱奇:
這項工作實在是太棒了。
還有網友看完之後,一針見血地總結道:
它們(聊天機器人)根本不會使用語言。
另外一邊呢,則是覺得 LeCun 從社會科學的角度分析完全是瞎扯,網友稱:
這隻是一堆軟件把程序設定的東西吐出來而已,根本就沒有意識。
甚至還有人直接開啓嘲諷模式:
現在一個機器人心理學家在解釋糟糕的程序設計。
作者介紹
Yann LeCun,就不用再多說了,圖靈獎得主,紐約大學教授,Meta 的首席 AI 科學家,大家都已經很熟悉。
另外一位作者需要好好介紹下。
Jacob Browning,紐約大學計算機科學系的博士後,主要研究人工智能哲學,具體來講,是研究人工智能和認知科學是如何改變傳統觀念、學習和思維的。
而人工智能哲學,也在試圖回答這幾個問題:
AI 可以有智慧的運作嗎,可以解決人透過思考處理的所有問題嗎?
AI 和人類智慧本質上是一樣的嗎?
AI 會有精神、心理狀态和意識嗎,能感知東西嗎?
對于 LeCun 在論文中的觀點,你是怎麽看的呢?
論文地址:
https://www.noemamag.com/ai-chatbots-dont-care-about-your-social-norms/?utm_source=noematwitter&utm_medium=noemasocial
參考鏈接:
https://twitter.com/ylecun/status/1633459264508542978