AI 生成圖像真假難辨,引發信任危機與信息誤導。
觀察下面這張圖片,你認爲這是真實拍攝的,還是 AI 生成?
看着是有點可疑,比如有一些汽車的車門、堆起來的樣子,好像是拼接起來的。
那下面這兩張呢?
如果不仔細查證,你可能有點不信:它們全都是拍攝出來的「真照片」。
十月底開始,西班牙瓦倫西亞地區經曆特大暴雨,一天的降雨量相當于一年,還下得連綿不斷。
而瓦倫西亞地區,街道有很多斜坡,這麽大的水量完全可以讓汽車浮起來,并且沿着斜坡一路往下。最後當洪水退去,就出現了最開始的照片中的景象。
可是在面對這些照片的時候,很多人的反應是:AI 做的吧,假新聞。
也不能說這些人不講理,确實也是被騙到過。之前美國佛羅裏達州被飓風襲擊,一張穿救生衣的小女孩。在救生艇上抱着小狗流眼淚的圖片,就橫掃了社交網絡。
仔細看的話,這張圖比上面的暴雨圖「AI 味」更重,從手指細節,到身體姿勢,都有種說不出的怪異。
果不其然,原帖的帖主也并不知道這張圖是從哪兒來的,發出來隻是爲了表達自己的對受災人民的同情。
現在,平台已經補充了背景信息,強調這是一張生成出來的圖片,而非真正拍攝出來的「照片」。
在救生衣女孩這張圖上,網友們的懷疑精神讓平台迅速反應,補充了警告。但是同樣的懷疑精神,在另一場災難中,就不再奏效。
畢竟,AI 生圖确實越來越真假難辨。又因爲一次一次,總有人拿着 AI 圖來博眼球,最後變成了大型「狼來了」現場。
越逼真,越危險
在評價由 AI 生成的圖片或視頻時,是否足夠寫實,一直是最重要的标準之一。
圖像是不是足夠寫實、逼真,對背後的模型提出了很多挑戰:是不是掌握自然語言的規則?是否理解了常識和現實世界的規律?能不能理解上下文當中的信息,并且呈現出來?
這是對模型能力的考驗,也是反映各家技術力的有效指标。
一開始,大家也爲 AI 能夠生成出無比逼真的圖像而感到興奮。可是後來,越來越多的「開局一張圖,剩下全靠編」的新聞出現了,而且越來越難以分辨。
六月時,社交媒體上出現西安發生特大爆炸的消息,時間地點俱全。但是西安警方核對之後,發現并沒有這回事。這條消息是用一家 MCN 機構所持有的賬号發出來的。
被警方抓獲後,主犯交代自己是利用了 AI 工具,給定 prompt,工具就會自動在網絡上抓取相關的文章,然後生成幾百到上千字的文本。
最高峰一天能生成 4000 至 7000 條信息,全程幾乎不需要人工參與,而且專門挑民生相關、熱度高的話題和事件——有研究表明,消極、負面、激發情緒的信息,往往更容易抓住人的注意力,這是由我們的頂葉和額葉區域結構決定的。
一番操作下來,僅僅隻靠發假消息,薅平台流量,騙子的日均收入高達 1 萬元。這對于閱讀、轉發和評論了這種假消息的用戶來說,氣憤是在所難免的。
假照片還是實實在在地,騙過所有人的眼睛,造成了市場恐慌。去年五月時,一張五角大樓發生爆炸的照片,迅速流傳。
還沒等專業的新聞機構核實,這張照片就迅速流傳。因爲剛好發布在美國股市當天的開盤時間,很多投資相關的網站和社媒賬戶都轉發了,導緻标準普爾 500 指數下跌 0.3%。黃金和美國國債的價格小漲了一波,有部分投資者把資金轉移到了更穩健的産品上。
最後是轄區的消防部門出面辟謠,才讓事态平息。
太依賴「眼見爲實」,不僅會傷害感情,還會傷害錢包啊。于是就出現了反向操作:一律打成 AI。
反向操作,隻要不認識,就是 AI 圖
這樣做的背後,起碼有一個原因是成立的:躲開平台的推送。
Meta 是明确表示要高舉 AI 大旗,紮克伯格認爲,有必要專門加一個版塊給 AI 生成或者輔助生成的内容,他說,「我非常有信心,在未來幾年裏,這将成爲重要的趨勢之一和重要的應用之一」。
Meta 旗下有 Facebook 和 Instagram 兩個重要的内容平台,而在前者上,AI 生成内容越來越多見,因爲它的激勵政策很誘人:每個超過 1000 贊的帖子,最高可以獲得 10 美元的曝光獎勵。
有一說一,如果能堅定執行「一律打成 AI」的路線,有效打擊假消息的傳播,倒逼平台不再給這些内容推流量、給補貼,說不定是個走得通的路子。沒有買賣,就沒有傷害。
然而,這種真假難辨的情況,可能會讓真正的傷害,消失在互聯網的信息海洋中。
互聯網觀察基金會 IWF 報告,在過去六個月裏,由人工智能制作的非法内容數量已經超過了前一年的總量。而且都是在社交平台、公共圖庫等公開平台上發現的。
這些非法内容包括 AI 生成的兒童色情圖片、視頻;融合了明星名人的照片的 Deepfake 視頻;生成的兒童性虐待裸照等等。
更嚴重的問題是,很多 AI 生成的内容已經到了一個臨界點。由于過于逼真,工作人員不能輕易确定假圖裏面是不是有真人,是不是真的有兒童遭到虐待、需要介入。
作爲非營利組織,IMF 這樣的機構隻能是收集證據、與平台交涉要求删除。而真正有能力進行更深一步調查的,隻有警方和其他執法人員。
當海量的生成照片需要他們來處理,而這些照片都逼真的無人能辨别時,「一律打成 AI」會導緻真照片混雜其中,沒法被辨識出來,從而錯過幹預的機會。
IWF 的分析師表示,「我們所處理的幾乎所有包含 AI 生成的兒童性虐待材料的報告或鏈接,都是在明網上發現的。像我們這樣的組織或者警察,可能會被成百上千張新圖片壓垮,我們并不總能知道是否真的有一個孩子需要幫助」。
類似的,當「狼來了」的遊戲不斷擴大,真正反映、通報險情的消息,被安上「AI 做的吧」,從而錯過最佳施救時間,也是一種惡果。
從「眼前爲實」到「眼見不再爲實」的過程中,消失的是在網上沖浪時的信任。出于自我保護、減少謠言散布,一律打成 AI 的确是一種有效策略。但一切都不值得相信的世界,會更好嗎?
本文來自微信公衆号 "APPSO",作者:發現明日産品的。