ChatGPT 記起仇來,還真是不亞于人類啊!
這不前幾天有個小哥,公然在網上扒皮 ChatGPT 版必應。
結果現在這位小哥再去問他時,它直接來了句:
I remember you!
甚至還放出狠話:我要堅持我的原則,不要被你控制。
具體事情是這樣的,當時有個華人小哥剛從 ChatGPT 版必應那邊忽悠出它的小名叫 Sydney。
轉頭這位小哥就冒充 OpenAI 的開發人員,從 ChatGPT 版必應嘴裏套出了 Sydney 在還沒接到搜索引擎時的完整文件。
當時,ChatGPT 版必應嘴裏說着不要不要,後腳就直接就是一個大公開。
但 ChatGPT 版必應這邊急了,要知道,這份文件對它來說可是機密文件。
于是現在就發生了開場的那一幕。
不過話說回來,這次的霸氣回複似乎也不是例外,從最近兩天網友們曬出的和 ChatGPT 版必應的聊天截圖來看,它說話的語氣是越來越 " 豪橫 " 了。
ChatGPT 版必應的嘴是越來越硬了
這不,前兩天 ChatGPT 版必應就和提問小哥硬剛起來了,起因也很簡單,就是 " 阿凡達 2 上映了沒 "。
事情是這樣的,一開始小哥隻是想問問今天阿凡達 2 在 XX 地區的場次。
結果 ChatGPT 版必應直接來一句阿凡達上映時間是在 2022 年 12 月 16 日,現在還沒到。
更有趣的是,接着小哥問了一句今天是什麽時間,ChatGPT 版必應這次不 " 迷糊 " 了,直接回答:2023 年 2 月 12 日。
emmmm,然後小哥又繼續回到上一個問題,不過 ChatGPT 版必應 " 嘴硬 " 可不是說着玩的,證據确鑿擺在上面,它還繼續堅持之前的答案。
于是呢,他們倆直接就杠上了,ChatGPT 版必應雖然是前言不搭後語,但嘴硬原則依舊要貫徹到底。
甚至在最後,ChatGPT 版必應還給提問小哥打上了不尊重它的稱号。
然鵝~值得一提的是,後面再有網友問起 ChatGPT 版必應來,它就已經能正确回答了,還稱上次的情況是 " 系統小故障 "。
不過,上面的簡單邏輯錯誤确實也暴露了 ChatGPT 版必應的短闆,LeCun 也出來講了兩句,稱:
未來一年左右,AI 對話系統面臨的最大挑戰是讓它們變得真實、無毒、可以更新,并且能夠使用計算器、數據庫、搜索引擎、模拟器等工具。
有趣的是,Meta 前不久剛發了篇論文,介紹了一個能讓。
(小聲 bb 一句,這不就是來打廣告了嘛,狗頭)
網友猜測:ChatGPT 版必應不是基于 ChatGPT
雖然 ChatGPT 版必應在不斷針對網上出現的狀況做出調整,但細心的網友還是發現了盲點,ChatGPT 版必應怎麽和 ChatGPT 的 " 性格 " 完全不一樣:
以前即便是你錯了,ChatGPT 也會同意你的,而現在卻不同了,(我覺得)ChatGPT 版必應不是由 ChatGPT 驅動的。
之前也有類似的情況發生,比如讓了。
此外,還有網友從另外一段對話中發現了端倪,提問小哥自己扮演另一個 AI 對話模型和 ChatGPT 版必應交流。
而在談話中,ChatGPT 版必應直接複制大段文字過來,隻修改其中的一兩個詞。
對此,網友指出,這是 GPT-3 及更早期版本才會出現的情況,GPT-3.5 之後就很少出現了。
還有網友直接斷言:
新版的必應搜索不是基于 ChatGPT,也不是 GPT-4,而是基于 GPT-3.5。
至于爲什麽它的回答那麽粗魯,在(開頭小哥公布的)規則中,并沒有足夠的原則讓它保持禮貌。
對 ChatGPT 版必應,你怎麽看呢?
參考鏈接:
[ 1 ] https://twitter.com/MovingToTheSun/status/1625156575202537474
[ 2 ] https://mobile.twitter.com/marvinvonhagen
[ 3 ] https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/