讓衆人瘋狂的網紅 AI ChatGPT,原來也有明顯的短闆?一段 " 網友調教這隻 AI" 的聊天記錄,在網上傳開了。可以看到,AI 起初居然說 27 是個質數。在網友向其提出質疑後,AI 仍嘴硬稱今天君濤文要和大家分享的是ChatGPT死活不認27能被3整除,網友:不是說AI要統治世界了嗎?,歡迎閱讀~
讓衆人瘋狂的網紅 AI ChatGPT,原來也有明顯的短闆?
一段 " 網友調教這隻 AI" 的聊天記錄,在網上傳開了。
可以看到,AI 起初居然說 27 是個質數。
在網友向其提出質疑後,AI 仍嘴硬稱 "27不能被 3 整除"。
網友不得不和 AI" 大戰幾百回合 ",最後在人類锲而不舍的教導下,AI 才終于終于低頭認錯。
△上述圖源:微博 @沙雕文案 援引網友空間截圖
有一說一,AI 的認錯态度倒是很好。
有圍觀者看完後調侃:AI 不是都要統治世界了嗎,怎麼會輸給一道簡單的數學題?
不過,也有很多人為 ChatGPT 說話:這麼坦誠的認錯态度,不比某些人強多了。
數學水平拉胯,還賊固執
具體事情是這樣的:
網友在和 ChatGPT 互動的過程中發現,這隻 AI 數學水平過于拉胯,連 27 是不是質數這種簡單問題都能搞錯——而且還是在知道質數定義的情況下……
于是網友讓 ChatGPT 證明它給出的結論,沒想到,AI 居然說 27 不能被 3 整除。
網友表示無語,但還是耐着性子又問了一遍,結果 AI 依然嘴硬,偏把 9 說成是 9.0。
無奈,網友隻能搬出代碼,試着用Python來教會 AI。
結果 AI 還真學會了!而且人家還主動承認了剛才的錯誤。
有意思的是,我們剛才也去問了 ChatGPT"27 是不是質數 ",發現它已經改過來了。
然後我們又拿了幾個數字去問 AI,結果在這一回合中,它都正确地判斷了一個數到底是不是質數。
不過仔細一看,AI 并沒提到 35 能被 7 整除,于是我們又專門問了一遍。然鵝……
這豈不是一本正經地胡說八道嘛?
于是我們也隻好搬出 Python 教教它,但這回,連 python 似乎也沒能讓 AI 承認自己的錯誤……
所以這隻 AI 為啥算術水平如此堪憂,而且還如此固執?
其中一個重要的原因就是,ChatGPT 是個語言大模型,根據 Open AI 的 GPT-3.5 的模型微調而成,它擅長邏輯推理,但并不能執行标準的計算機算法。
而且與搜索引擎不同,它目前也沒有網頁浏覽功能,無法調用在線計算器。
此前,ChatGPT 其實已經向用戶坦言,它不懂算術。兩位數的乘法或許還湊乎,但遇到三位數的乘法,人家直接不幹了。
我們也去問了一遍,現在 AI 到是直接給了個答案,不過是錯的。(正确答案為 186524)
另外,ChatGPT 一般不會根據用戶的反饋來糾正自己的答案,但如果用戶提出了額外的信息,有時也能輔助 AI 優化答案。
所以,我們暫時沒有成功地 " 教育 "AI,大概也許可能是運氣不太好……
除了數學其他都很全能
盡管 ChatGPT 有時會展現出 " 人工智障 " 的一面,但不得不說,大多數時候它的表現還是很優秀的。
比如,哥倫比亞大學教授、谷歌工程師 Kenneth Goodman 就分享,ChatGPT 已經做好成為律師的準備了!
在律師執業考試中,ChatGPT 的正确率高達 70%(35/50)。
不僅是法律方面,Goodman 還讓 ChatGPT 參加了其他不同領域的各種考試,都取得了很高的成績。
包括美國醫師執照考試(USMLE),拿掉其中的圖像選擇題後,ChatGPT 同樣做到了 70% 的正确率。
為了防止 ChatGPT 的訓練數據中包含這些題目,Goodman 還特意選取了紐約州 2022 年 8 月最新化學注冊考試:
去除 5 個圖片選擇題,ChatGPT 的正确率為 77.7%(35/45)。
同樣批次的英語考試中,ChatGPT 的正确率甚至達到了 91.6%(22/24)
有網友已經開始預測,或許我們每個人都将擁有自己的律師 AI 了,咨詢律師的費用也會大大下降。接下來就是醫生 AI、營養師 AI ……
怎麼樣,你看好 ChatGPT 的未來應用嗎?(或者你有讓它學好數學的建議嗎?)
參考鍊接:
[ 1 ] https://weibo.com/7095186006/Mj6LVF0zS#comment
[ 2 ] https://twitter.com/TonyZador/status/1601316732689604608
[ 3 ] https://twitter.com/pythonprimes/status/1601664776194912256
關于ChatGPT死活不認27能被3整除,網友:不是說AI要統治世界了嗎?就介紹完了,您有什麼想法可以聯系君濤文。