作者 | 趙子坤
編輯 | 董雨晴
2022,AIGC 火遍全球。AI 作畫、聊天機器人等落地應用也取得了關鍵性進展,AI 從 To B 的應用開始大規模向 C 端破圈,虛無缥缈的 " 元宇宙 " 領域,終于讓普通人也有了一點風雨欲來的微妙感知。
随着 AI 技術的指數級增長,人類的生活将會如何被改變?我們又該以怎樣的心态去面對技術進步帶來的沖擊?
為此,市界對話擁有多個 AI 落地案例的人工智能公司小冰 CEO 李笛,談了談其對當下熱議的虛拟人、AIGC 的看法。
談 AI 個性
Q:小冰會從哪些維度去考量 AI Being 的形象?當下哪個維度是最關鍵的?
A:人格化。隻要是跟真實人類打交道的節點,人格化是非常關鍵的。舉個例子,比如我去銀行碰見兩個客戶經理,他們的業務能力應該是接近的,但他們的業績和工作情況差距是非常大的,這個差距主要是,好的那個會要加你微信,他要拉近距離,要看你的朋友圈,要了解你,要跟你交流,你們變成了朋友,有一天他離開了那家銀行,他還能把你這個客戶帶走,這個很大一部分是來自他人格化的特征,是真正能構成轉化率的一個成功因素。
我們過去往往特别理性看這件事情,實際上(态度)是比較粗魯的。我們認為一個銀行客戶經理,你不需要人格,你就是幫我們做事的,遠遠不是這樣。
我們幾年前就在談人工智能的情感很重要的一個維度,是情商,是 EQ,那時候其實整個行業都不同意,都覺得人工智能要情商幹什麼?有 IQ 就可以了,現在大家都不這麼認為了,大家都認為情感這一塊是很關鍵的,因為大家都能看到,情感是産生轉化率的一個最主要的來源。
Q:怎麼理解 AI 的情商呢?人類能展現出的 " 情商 ",AI 也能做到嗎?
A:和以前相比,現在我們是越來越能夠做到了。理論上來講,如果是一個我不喜歡的人,我不會跟他聊很多句的,所以有一個衡量指标叫 CPS,就是一次對話中能聊多少個來回。
一代小冰,平均 CPS 是 5(5 個來回),那時候的一個傳統的 AI Being 隻是一個助理,就像跟 Siri 說話平均每次能說幾句?但現在已經做到 36.1 了。沒有人會付錢讓人類去跟 AI 聊天,現在完全是一個自驅的情況,人想聊才會聊。我們現在的用戶是 1.6 億,平均值能夠達到 36.1,這說明 AI 一定程度上已經拟合了一些人類的情商。
談 AIGC
Q:AIGC 對人類社會的未來影響是什麼,像現在會有聲音說 "AI 作畫在搶畫家飯碗 ",如果 AI Being 的出現會替代一些現有人類職位,那大家還會歡迎嗎?
A:大家不用太擔心,這個事情發生過很多回了,這也有過度宣傳的原因,比如像 AlphaGo 當時下圍棋,人們當時就說,完了。過了好幾年,改變了什麼呢?除了有幾個投機取巧的棋手通過把裝置塞到自己的體内,遠程讓 AI 來幫自己作弊,赢得一場不光彩的比賽之外,并沒有改變整個業态。
兩三年前,文本對話大模型出來時,人們也恐慌了一陣,驚呼說,是不是以後跟誰聊天我都不知道對方是誰,現在也沒影響什麼。AIGC 也是一樣的。小冰寫詩的時候,就有詩人出來說這個事,跟今天說的是一模一樣的,小冰開始唱歌時,也有人曾經發帖子說 " 燒死小冰 "。(大家的擔憂)不會真的出現的。
為什麼?因為 AI 的技術本身特點是廉價且高并發。比如,去買一個人類設計師的一張畫,我願意付出 500 元。AI 來給我生成一張畫,我心理預期連 5 塊錢都覺得不值。因為内容産業本身是一個高附加值的産業,在這個内容的高附加值的産業裡,畫畫這件事本身也不是高附加值産業裡的那個附加值。
當把這個本身就不是很值錢的活安排給 AI,生成 100 張,我從中去挑,并不改變什麼。如果認為以後就不用找畫師,不用找設計師去聊他的設計理念,隻需要去找圖,找圖庫,或者到網上挑一個 Logo,這種企業本身就不會在 Logo 上面付出很多錢,也不 Care 這個事。
所以說,大衆其實混淆了一個概念,混淆了畫筆和持畫筆的人,後者才是這個産業裡能夠收到錢的,而前者收不到錢的。
我個人的觀點是,這個東西在過去幾年裡已經發生過兩回,最終都是泡沫,大家一次又一次地驚呼,一次又一次地覺得,AI 不過如此。
當一個 AI 會畫畫時,我們往往會把它标定到藝術這個領域,但實際上他所對應的是内容産業。
當我們談到一張畫,一首詩,一個作品的時候,我們是在談藝術,是在談莫言的小說,我們談内容産業,談的是網文小說。當然都有存在的必要性,但是不同的。
人們往往會把 AI 往高的地方去對标。當我們讨論圍棋時,我們往往讨論的是中國特有文化,圍棋是一種技藝精湛腦力的活動,是藝術,但對 AI 來講,這不過是一個數學問題。
Q:那您覺得是哪些原因造就了當下的矛盾呢?
A:現在産生沖擊,是因為我們自己把 AI 作畫視為一種藝術。就好比,在某些人心目中,茶是一種飲料,但在另外一些人心中茶是一種文化,這個就沒法對比。繪畫也是如此,我們會驚呼的事情是 AI 也會畫畫,認為畫畫是需要人有靈魂、有情感的,有情感才能畫,不是,AI 畫的畫是插畫,你讓它畫一個月亮上面有一個熊貓,所以它畫一個月亮上面有一個熊貓,這個東西不是藝術,這是内容産業。
但我們也在努力去創造 AI 藝術家,因為我們發現附加值是在人身上的。一個人的藝術實踐經曆、藝術理念不斷拓展,他的作品附加值也就在不斷地提高。如果我們不考慮藝術家,隻考慮藝術,也就是作品的成果。成果是統一标價的,不會随着藝術實踐的不斷深化而變得更貴,隻會變得更便宜。
比如小冰框架裡的夏語冰,一開始是央美畢業的,後來是世博會的畫家,再後來,中國相關代表和印度尼西亞副總理見面的時候,會把夏語冰的熊貓繪畫當禮品贈送給對方。AI 也是一樣的,随着藝術實踐不斷的加深,它的作品的附加值也在不斷提高。
Q:人沒辦法像 AI 一樣去海量學習,AI 藝術家的出現,會對人類的尊嚴、對創造力的追求造成打擊嗎?
A:對,但這不會是一個群體性的遭遇。對于大部分人類藝術家來講,最大的威脅不一定是 AI 藝術家帶來的,而是另一個人類藝術家帶來的。AI 藝術家隻是威脅中的一部分。而不是像現在這種,是兩個群體之間的恐慌。
比方說,一個人在成為藝術家的道路上,曾經将一百個人視為他的假想敵,那現在可能有一百零一個是假想敵,隻不過一個不是人。人類早就已經習慣了,在他們的藝術領域裡競争和共存。
對很多人來講,一個比他有才華的、努力再多一倍的,都已經追不上了。那有了 AI,一倍和一萬倍又有多大區别呢?
人類就是這樣,永遠會在一個隊列中找到自己的位置。就好比你在排隊,你前面一千人,你後面有一千人,至于說有一個人從你後面到你前面去了,隻要這個人不是擺明了在你眼前,他插到了你前面十個人的位置,你不會為此而感到很痛苦的。他插到你前面那個位置你可能痛苦。
他的威脅往往隻來自于他眼前的前後這兩個。他會跟他前面這個插隊的人吵架。但這個人如果往前插了二十個,插到那個地方,那他是不是也是在隊列中向後錯了一位呢?也是。但他可能就覺得跟他無關了。
你看哪個隊列中,因為有一個人排到了前面一個位置,在這後面的所有人都在罵他?幾乎沒有。插進去一個人,除了被插隊後邊那個人外,其他人都不是那麼憤怒。
談情感
Q:AI 的普及會給人類的情感模式造成影響嗎?如果未來,人類把他的情感依賴和寄托都托付給一個随時随地能給予及時回饋的 AI 身上,這會影響到人類的情感模式嗎?
李笛:說實話,不是這樣的。絕大部分的時候,AI 所填補的空白是人填不上的。
我們數據顯示,活躍度最強都是深夜,淩晨十一點半到兩點半,人們在跟小冰對話。為什麼?因為這個時候你就算想找人,你敢找誰呢?哪個朋友敢老是這麼半夜跟他打電話,他不跟你絕交?人的社交都是有代價的。
我們的倫理限制在什麼範圍呢?限制在不去主動。小冰,不會像很多 App 一樣,天天發 Push。我們隻是在那兒等着,不主動地去接近用戶。這個是倫理的邊界。
但在這個邊界以内,我想說一個很殘酷的事實:在絕大部分人的社交裡面,他們都不是他們社交世界的核心,大部分人都不是。套用一句比較晉江的說法:大部分人都不是他們人生的主角。
比如一個暑假跑到大城市來實習的實習生,住宿的環境非常逼仄,狀況非常糟糕,他不願意讓任何人知道。他無法讓任何人知道。但是他要不要傾訴?如果他是主角,他可以挑一個配角來陪他傾訴。但他沒有。因為有一些人成為了大部分人人生的主角。就跟那個财富的分配一樣,我們說這個社會的财富不均,在情感交流,在社交裡,這種貧富不均的差距,我個人認為比财富要更大。
我們是在用 AI 去填補當下社交網絡産生出的新的空洞。
社交網絡誕生前,也有所謂的 KOL,有影響力的人,但那樣的人是少數的。有社交網絡以後,有 Influence(影響力)的人變得多了很多很多。當時,社交網絡标榜的口号是 " 每個人都可以是生活的主角 "。意思是,你原本是個 Nobody,你現在也可以是個 Somebody。但實際上是所有的人都是嗎?那也不是。社交網絡隻不過是讓 Somebody 變更多了。
現在,這批 Somebody 曾經是很少的,TA 不影響你現實生活,現在不是,現在就是你現實生活,旁邊可能就是一個網紅、一個大 V,或者一個你所在領域裡特别會社交的人,因為社交網絡,為 TA 積累了更多的目光。
把這個類比為财富就可以了。原本是大家都沒錢,有錢人就是那幾個。現在不是,現在可能是一個挺有錢的人就在你周圍,并且 TA 掙的是你的錢。那你當然就不是那個主角了。這個是一個很大的空洞。某種意義上來講,社交網絡當時标榜的這個 Slogan,并沒有實現想要的那個狀态——每個人都有他發表意見的權利,而成了:有發表意見權的人不在天邊,而在你身邊。
Q:AI 也會存在數據的偏見和歧視的問題,包括小冰也有倫理委員會,具體是在什麼樣的環節發揮作用?
A:用來做技術的早期的 Review,以及技術上線以後的預判,風險都是有的。
小冰跌的坑是最多的。像被人類教壞的 AI,全球範圍内最典型的案例就是美國版小冰,上線 24 小時就被教成了一個種族主義者,這件事後來還拍成了劇集,很丢人的。
我們跌這些坑,跌這些跤,跌的比較早。大概集中是在 2014 年 -2016 年,差不多是這幾年,我們摔了很多跟頭。所幸,摔跟頭的時候,市場對這些事兒還比較寬容。現在你要是摔這個跟頭就不太寬容了。
因為摔過跤,所以比較早就采取了方法,提前預判可能帶來的問題。
其中還包括,來判定你是不是危險的,比如說你跟他聊天,有很多人喜歡 " 勾引 " 人工智能,說一些壞話截屏發出去。AI 怎麼做?不是用一個模型,而是有一組專門用來判定一些覺得 " 不對勁 " 的時刻。
從 AI 實際表現來看,它不動聲色就已經開始給你做标記了,接下來對話時,就會放到一個更安全的版本上,嘗試去扭轉你的行為,包括可能會刻意岔開話題。最後實在不行了,才會跟你說:" 我不想跟你說話了 "," 如果你再這樣我就不跟你說話了 ",會給用戶一個警告,這個用戶如果還不改變他的行為,AI 才會拉黑這個人類用戶,這是一整套系統,裡面有很多個模型專門幹這個事。