如今微博上被 @最多的人是誰?可能是很多人都沒聽過的一個互聯網科技博主,叫做 @評論羅伯特。
其實它是一個以用戶身份活躍在微博評論區的 AI,隻要發布 10 字以上的原創微博或 @評論羅伯特 ,就有機會得到它的回複。
但 @評論羅伯特的出圈不是因爲勤奮,而是習慣性的 " 胡說八道 ",甚至有一個 @羅伯特受害者聯盟的賬号定期更新不堪騷擾的用戶投稿。
互聯網世界中有一個著名的說法:" 你永遠不知道網絡的對面是一個人還是一條狗!" 如今将 " 狗 " 換成 AI,一點也不違和。
有認真求助的微博網友就被羅伯特調戲了。網友說自己有份 940 多頁的英文文件,想找人幫忙翻譯,結果羅伯特說可以幫忙看看。
而這位博主還真把羅伯特當成了真人,把文檔鏈接發給了它,然後就沒有然後了。
你以爲隻有微博用戶歡樂多,其實百度貼吧也有一位羅伯特的 " 同道中人 " ——貼吧包打聽。
" 貼吧包打聽 " 是百度貼吧推出的回帖機器人,專門爲貼吧用戶答疑解惑,相當于 AI 版的百度知道。但與文心一言比起來,這個包打聽簡直就是給百度抹黑的。
在疾地大亂鬥吧裏,包打聽一本正經的回答碧昂絲不是大猩猩,而是黑猩猩。
在網友求助拯救者哪個配置好的問題下面,包打聽也出現了明顯的答非所問。
而在此前的合金裝備吧裏,包打聽還有過将遊戲 " 殺人 " 理解爲真實殺人的回答,不過目前已經搜索不到了。
從包打聽有問題的回答來看,很多時候都是不相關且理解錯誤,有網友就給出了一種貼切但很惡心的形容 ↓↓↓
當然也有人認爲這是百度故意的,原因在于包打聽總瞎扯,倒逼大家不得不去回複正确答案。
關于這一點可能是平台希望看到的,一個錯誤答案可以創造多個高質量回答,而這些高質量答案就能成爲用于 AI 訓練的優質語料。
但這種方式對用戶體驗的損害是肉眼可見的,在貼吧很多用戶對包打聽這種容易引發誤解的胡亂回答都很排斥。
更令人想不到的是,早前也有用戶反映包打聽的回答是從知乎上爬取的。知乎上甚至有一個問題貼出了鐵證,一個關于明日方舟遊戲的回答,包打聽的内容與知乎答主的回答高度相似,很多地方都是原封不到 copy 過去的。
而類似的回帖機器人已經不止包打聽和羅伯特了,在快手上也有一個叫做 AI 小快的機器人賬号,也能搜到在評論區翻車的例子。
其實在國内,類似羅伯特、包打聽這樣的回帖機器人,在 2015 年就出現過,隻不過當時的普遍叫法是社交機器人,比如當時活躍于新聞 / 購物網站、社交平台的小冰。
而圍繞社交機器人的讨論早在 2010 年就出現了,當時一些商業公司開始采用社交機器人,模仿人類行爲,在社交網絡上大規模地擴散營銷廣告。
真正讓社會重視社交機器人是在 2016 年的美國大選結果出爐後。當時南加州大學數據科學家 Emilio Ferrara 等在推特收集了 2000 萬多條與 2016 年大選有關的推文,這些推文是在 2016 年 9 月 16 日至 10 月 21 日之間由約 280 萬個賬号生成。
結果表明,其中超過 40 萬個賬戶可能是社交機器人,占總用戶量的近 15%。它們生産了約 380 萬條推文,占總推文數的 19%。
其中有意思的是,關注特朗普的社交機器人幾乎沒有發負面推文,生成更多支持特朗普的積極推文。而在所有積極推文中,近三分之二是支持特朗普的。
這位科學家爲了研究社交機器人,還在 2020 年的大選後分析了 2.4 億條相關推文,結果顯示社交機器人的活躍程度讓人類賬号 " 相形見绌 "。
它們學會了挖掘用戶數據," 克隆 " 人類行爲,與他們的朋友互動,發布主題一緻、時間間隔相似的内容,更具迷惑性。
更嚴重的是,人工智能的語言環境污染以及語言暴力問題早已不是新鮮事。
2014 年,聊天機器人 " 微軟小冰 " 在用戶的調戲和謾罵下,開始爆粗口;2016 年,聊天機器人 Tay 在推特上發布,并迅速變成了一個公然的種族主義、厭女主義和反猶太主義者;2020 年,韓國推出少女聊天機器人 Luda,大量用戶用語言對它進行性騷擾,不久後,Luda 就開始說出歧視性少數、女性和殘疾人的言論。
再看今天的羅伯特、包打聽和 AI 小快,它們有着更豐富的語料和更先進的技術,進化也就更快。盡管當前它們是活躍在評論區的回帖機器人,但對于用戶來說,當它們産生的内容具有足夠迷惑性的時候,誰又能保證自己一定能分辨的清。