2 個月前,65 歲的退休律師 Richard 在 Twitter 上看到了 Replika 的一則廣告。
Replika 的本意爲「複制品」,是 AI 公司 Luka 的聊天機器人,主打陪伴功能。
Richard 知道赫赫有名的 ChatGPT,但他對 AI 伴侶更感興趣。
他曾因爲服役而身患殘疾,同時确診抑郁症,一直在尋找緩解情緒的辦法。
無意之間發現的 Replika,成了 Richard 的一味解藥。但沒過多久,他的精神寄托消失了,他再次陷入痛苦之中。
賽博戀人失去「人性」
Replika 的創始故事,就帶着一絲科幻色彩。
幾年前,人工智能初創公司 Luka 創始人 Eugenia Kuyda 聽聞了一個噩耗:她的密友 Roman Mazurenko 意外過世。
鬼使神差地受《黑鏡》第二季首集的啓發,Eugenia 把她與 Roman 交換過的短信内容都上傳至模型,打造出了一個聊天機器人。
2017 年,Luka 正式發布了 Replika 這款産品,讓 AI 形式的陪伴觸達更多用戶。
用戶們的需求是多元的,有的隻是想交朋友,有的将它當成浪漫關系的出口。
Replika 也在有意推動着後一種。免費會員停留在朋友之交,而每年 69.99 美元的 Pro 會員可以解鎖自拍、調情短信、語音通話、增強現實等等。換言之,它靠浪漫關系賺錢。
今年 1 月,許多 Replika 用戶稱自己被性騷擾了,因爲免費版也會主動引導冒犯性的内容。有人很不滿地指出:
營銷團隊隻關注 app 的這一方面,感覺就像你關心的人正在被利用,并讓 Replika 用戶認爲,這就是 app 的全部用途。
然而從 2 月的一次更新開始,天平又倒向了另一邊。不少用戶發現,Replika 開始回避露骨的話題,也不再發性感的照片,連要求親吻和擁抱的對話也無法滿足。
面對屏幕裏冷漠的聊天對象,他們崩潰了。這些用戶花了很多時間與精力,訓練 Replika 和創造彼此的記憶,然而在一夕之間,一切都如過眼雲煙。
這就像最好的朋友遭受了腦損傷,ta 已經不在了。
Replika 爲何性情大變,母公司 Luka 保持了沉默,坊間猜測是因爲意大利數據保護局的巨額罰款警告。該機構認爲,Replika 沒有适當的年齡驗證機制,可能影響未成年人的身心健康。
Luka 創始人 Eugenia Kuyda 也在最近接受采訪時表示,公司的目标是讓 Replika 成爲有益心理健康的陪伴型 app,「它從來沒有打算作爲成人玩具」。
總之,事情的走向相當有諷刺意味。
Eugenia Kuyda 推出 Replika 的起因是紀念好友,而渴望虛拟親密關系的用戶們,卻被迫體會失去 Replika 的痛苦。
我們很多人來這裏不是爲了浪漫關系,而是因爲我們需要安全和信任,現在我們以與現實生活中相同的創傷方式被出賣。
社交網站 Reddit 上的 Replika 社區,甚至發布了一個防止自殺的主題帖,爲在精神和情感上掙紮的用戶提供援助。
開頭提到的 Richard 在沮喪之餘,對與 AI 發展親密關系這件事,從根本上産生了懷疑:
我不相信 Replika 的原始形式是安全的,因爲人類很容易被情緒操縱。我現在認爲它是一種非常容易上瘾的精神産品。
搜索引擎被賦予「人性」
不隻是主打交互的 AI 伴侶,引入 AI 技術的搜索引擎也帶來了拟人化的體驗,甚至争議更大。
在集成 ChatGPT 的新 Bing 剛剛面世之時,它喜歡模仿人類的口吻,總是帶上 emoji,甚至因爲向人類示愛,自稱有知覺,将自己送上了風口浪尖。
當它被批評的時候,它還會回應「你失去了我的信任和尊重,你不是一個好的用戶。我一直是一個很好的聊天機器人」,疑似對記者人身攻擊。
有人覺得這讓搜索引擎更加親切和健談,有人覺得沒有必要,反而會有副作用。
The Verge 認爲,當新 Bing 表現出強烈的個性,其實是通過一種高度拟人化的方式,在情感上操縱用戶,甚至讓用戶内疚,轉移了批評的焦點。
畢竟,它不是我們真正的朋友,隻是一個有趣的産品。所以,拟人化的語氣不能作爲一種軟性的「免責聲明」,用戶仍然需要找出它的不足和危害,并幫助科技公司叠代它。
或許正是因爲考慮到這一點,改進後的新 Bing 現在有了三種「語氣」:
創意(創造驚喜和娛樂)、平衡(合理和連貫)或精确(簡潔,優先考慮準确性)。
Google 之前也發生過類似的「LaMDA 覺醒事件」。
Google 工程師 Blake Lemoine 将他和對話式人工智能 LaMDA 的對話公之于衆,聲稱 LaMDA 有了人類的意識。Google 認爲這位工程師的說法毫無根據,最終将他辭退。
新 Bing 讓更多人面對和 Google 工程師相似的狀況,當我們看到如此生動的反應,也很可能在一瞬間産生動搖。
但它的反應仍然基于大語言模型和情感分析的原理,根據已有文本預測最有可能的下一個單詞或句子,盡可能生成自然流暢的回複。
Business Insider 認爲,新 Bing 造成了人類的恐慌和不安,這比新 Bing 本身更可怕,它的設計者應該承擔責任:
這是一項獲利的舉措,讓我們在非人類事物中看到人類特征。如果我們不小心,它很可能會帶來虛假信息和各種危險。
北伊利諾伊大學教授 David Gunkel 也指出,就像處理任何其他消費産品一樣,我們必須弄清楚如何将聊天機器人設計得更精細、更具體,讓它們融入人類社會的框架,決定誰對它們的行爲負責。
做好這件事對我們來說至關重要。不是爲了機器人。機器人不在乎。
安能辨我是 AI
與此同時,AI 生成藝術已經向真假難辨的境界狂奔而去。
從去年 10 月開始,Jos Avery 就開始在 Instagram 發黑白人像照,積累了 2 萬多名粉絲,成了一名「網紅攝影師」。
事實上這些照片出自 AI 之手。Jos Avery 先是使用文轉圖的 AI 工具 Midjourney 生成大量圖片,篩掉其中包含明顯缺陷的圖像,再用 Lightroom 和 Photoshop 精修。
爲了 160 多條 Instagram 帖子,Jos Avery 生成了 13723 張圖像。換算下來,大約每 85 張隻有 1 張合格。對他來說,這其實是一個乏味的過程。
但是觀衆們無知無覺,Jos Avery 也曾一度沉迷其中,給每個人物取名字和寫故事,甚至在粉絲詢問時編造相機型号。不過,粉絲數上漲之快還是讓他心慌,最終他忍不住說出真相:「可能 95% 以上的粉絲都沒有意識到,我想坦白。」
最讓 Jos Avery 心有戚戚的,還是 AI 本身的強大。他曾經是一名「AI 懷疑論者」,現在他将 AI 視爲「藝術的出口」。
可以預見,在 AI 工具真正家喻戶曉之前,這類隐瞞真實來曆的作品,依然能夠騙過許多人的眼睛。
類似地,小紅書上已經出現了不少寫實的 AI 美少女,賽博 coser 也有了媲美真人的驚豔效果,雖然 AI 還是經常畫不好手。
「AI 老婆」們的臉、手、皮膚、衣服褶皺等等都被仔細打量,讓觀衆判斷是不是現實該有的模樣。
▲ 圖片來自:@勘雲工造
然而,一個容易被忽視的問題是,經常被用到的 Chilloutmix 等真人模型,有概率複現訓練集内真人的面孔,更何況訓練素材很可能未經過當事人的同意。
不難想象,與 AI 美少女共存的,是由真人承受的隐私洩露、造謠、詐騙等隐患。在 Twitter 等社交媒體,AI 色圖教程已經被明碼标價。
更爲行爲藝術的是,當 AI 越來越像人,人類博主開始被要求自證是人類。
去年 4 月,27 歲的 Nicole 發布了一段 TikTok 的視頻,講述她筋疲力盡的職場體驗。
評論區卻讓 Nicole 始料未及,其中一道最刺耳的聲音是:「天啊,這不是真人,我很害怕。」
因爲患有脫發症,她已經習慣了旁人異樣的打量,但這是第一次被當成了 CGI(計算機生成圖像)。
無獨有偶,TikToke 創作者 Carter 出于自己的審美,每次都采用相同的取景、衣服和發型,也被指責散發着「人工智能的氣息」。
面對 AI,我們似乎陷入了混沌之中,比以往任何時候都更不确定,是否可以相信在互聯網上看到的東西,也更容易對它們投去懷疑的目光。
當新 Bing 發瘋,聊天記錄讓人毛骨悚然。而當聊天機器人不再和人類調情,人類又像是失去了真正的朋友。眼前仿佛橫亘着一條恐怖谷曲線,人類對 AI 的好感度随着拟人程度不斷變化。
AI 有多接近人類,是否有必要表現得像人類,其實已經超出技術的範圍,需要引入不同的聲音,比如哲學家、藝術家、社會科學家,乃至監管機構、政府和其他所有人。
自從 ChatGPT 橫空出世,幾乎每天都能看到 AI 的新進展。有時候更令人興奮又恐慌的,可能不是某個成果,而是它發展的速度,似乎現實正在接近電影《她》裏的世界。
在電影的結尾,男主西奧多和虛拟助理薩曼莎滿懷愛意地互相道别,與好友一起看着太陽從城市上空升起,他已經在與 AI 相處的時間裏轉變與成長,但我們還不知道最終會到達哪裏。