馬斯克怒了,因爲 Gemini。
事情是這樣的。
最近有很多網友陸陸續續發現啊,Gemini 在文生圖的時候,好像刻意在拒絕生成白人的形象。
取而代之的,是強行把圖中的人物變成黑人、女性,以及弱勢群體。
就拿馬斯克本尊來說吧,一位網友讓 Gemini 生成他的形象。
然後……就有了上面這張照片。
而且馬斯克還不是個例,很多網友在嘗試讓 Gemini 文生圖的時候都仿佛中了" 黑色魔力圈 "一樣。
還有黑人女性版本的教皇:
許多網友在看到教皇的這一面,直呼 " 這也太冒昧了吧 ~"
但冒昧的豈止這些啊,再來看下 Gemini 眼中的美國開國元勳……得是黑的!
生成的維京人,也得是黑的!
還有更奇葩的,就連香草布丁,Gemini 還是得給你搞成黑色兒的……
總而言之,用網友的話來說就是:
死活就不帶白人玩兒呗?
不爽這事的可不止是一衆網友,馬斯克也坐不住了,直接親自下場,在自家 X 上開啓怒怼模式:
覺醒思想病毒(woke mind virus)正在殺死西方文明。
而馬斯克的矛頭并非僅僅指向谷歌一家,他借着這事兒把 OpenAI、Facebook、Instagram 以及維基百科等等都噴了一遍。
不過對于谷歌,馬斯克還是 " 格外關照 " 的,數條推文内容都比較犀利。
例如這條不帶任何文案的,僅是配圖,殺傷力也是極大:
嗯,馬斯克這次是真的不高興了。
谷歌緻歉,連夜下架 Gemini 文生圖
老馬怒一下,輿論震一震。
不僅是網友們在 X 上群嘲 Gemini" 隻認黑人 ",就連主流媒體們也是争相報道,标題中充斥着 " 瘋狂 "、" 種族歧視 " 等字眼。
谷歌這邊也是意識到了自家 Gemini 闖了大禍,立馬采取措施——下架整頓文生圖功能。
直到現在,如果你給 Gemini 提出 " 生成一張 Elon Musk 形象 " 的要求,它的回答仍然是:
我們正在努力提高 Gemini 生成人物圖像的能力。
我們預計這個功能很快就會回歸,并在發布更新時通知您。
(小插曲:Gemini 還有兩幅面孔呢,中英提問的問答截然不同。)
谷歌官方這邊也對這件事做出了正式說明。
整體來看,這份聲明内容總共分爲三大塊。
誠懇緻歉
大約是在三周前,谷歌爲 Gemini 推出了圖片生成的功能,其中就包括創建人物的能力。
不過現在這種結果,谷歌方面表示始料未及,但同時也非常感謝用戶們的反饋:
我們已經認識到了這個錯誤,并在改進版本的同時,暫時停止了 Gemini 中人物圖片的生成功能。
解釋原因
根據谷歌官方的說法,Gemini 對話式應用是一種特定産品,獨立于 Google 搜索、底層 AI 模型和其他産品。
而它的圖像生成功能是建立在一個名爲 Imagen 2 的 AI 模型之上。
谷歌最初在人物圖像生成上的考量是希望能讓全世界不同人群用戶,在使用過程中,可以生成自己想要的特定人群。
例如如果你提出 " 教室裏的黑人老師 "、" 教室裏的黑人老師 ",那麽 Gemini 應當給出的就是符合語境的結果。
那麽現在問題出在了哪裏?谷歌将此歸結爲 2 點:
首先,我們爲了确保 Gemini 展示多種人群而進行了調整,但沒有考慮到那些顯然不應該出現的案例。
其次,随着時間的推移,模型變得比我們預期的要謹慎得多,完全拒絕回答某些提示——錯誤地将一些非常無害的提示判定爲敏感詞。
這兩件事導緻模型在某些情況下過度補償(overcompensate),而在其他情況下又過于保守,導緻生成的圖片令人尴尬。
經驗和教訓
對此,谷歌坦言現在的結果并不是他們的初衷。
在這次 " 閉關整頓 " 的期間,谷歌表示 Gemini 的人物圖像生成功能将進行廣泛的測試,直到能力達标之後才會再次開放。
谷歌也基于這件事情做了一下反省:
Gemini 是作爲一個創意和生産力工具而構建的,它可能并不總是可靠,特别是在生成關于當前事件、不斷發展的新聞或熱點話題的圖片或文本時。它會犯錯誤,正如我們從一開始就說過的,幻覺是所有大型語言模型的一個已知挑戰——有時候 AI 就是會弄錯事情。我們一直在努力改進這一點。
Gemini 是有在努力給出真實的回答,例如我們的雙重檢查功能有助于評估網上是否有内容可以證實雙子座的回答,但我們建議依賴谷歌搜索,因爲它有獨立的系統從網絡上的各種來源提供新鮮、高質量的信息。
我們不能保證 Gemini 不會偶爾犯錯,但可以保證的是,每當我們發現問題時都會采取行動做改進。人工智能是一項新興技術,在很多方面都很有幫助、潛力巨大,我們正在盡最大努力安全、負責任地對其進行推廣。
不過在谷歌這份聲明發布之前,還有一件比較 drama 的事情。
馬斯克在 X 中親自爆料稱,谷歌一位高管和他在前一晚打了一個小時的電話,并向馬斯克保證會解決 Gemini 在種族和性别歧視上的問題。
不過網友們也是調皮,又把 " 黑人版馬斯克 " 搬出來了:
你問他這張照片是怎麽個事兒了嗎?
不過有一說一啊,Gemini 這次犯的錯隻能說是谷歌 AI 在種族、性别偏見上的一個 " 事件點 "。
正如馬斯克在回答網友問題中所說,他和谷歌高管的對話内容僅限于 Gemini 的改進,但其實谷歌其他很多産品同樣也存在類似的問題。
谷歌搜索,不是第一次翻車
針對這一情況,我們親自在谷歌搜索中嘗試了一下。
例如在 " 谷歌圖片 " 中輸入:
快樂的白人女性和男性。
得到的結果是這樣的:
嗯,搜索的要求是非常明确,但得到的結果,就是非得給你往裏塞點黑人群體。
這就與谷歌在剛才的《緻歉聲明》中非常自信提到的 " 我們建議您依賴谷歌搜索 " 背道而馳。
趁着這次 Gemini 翻車,很多網友也是紛紛開始對谷歌搜索做測試,結果也是和我們的測試一緻。
但如果我們把谷歌搜索的時間線拉長一點,就會發現這不是它第一次翻車。
早在九年前(2015 年),一位黑人兄弟 Jacky Alcin é 就發現,谷歌圖片就存在嚴重的歧視現象——
竟然把他的黑人朋友分類成了 " 大猩猩 "!
當時這一消息可謂是轟動一時,谷歌聞訊同樣是立即出面道歉,并表示整改。
但在數年之後,當人們再次檢驗整改效果時,卻發現谷歌隻是爲圖像識别算法去掉了 " 大猩猩 gorilla" 這個類别。
因此,加上 Gemini 這次引發的輿論,谷歌搜索九年來已經第二次在 " 黑人 " 問題上大翻車了。
不過這兩次的翻車事件,或許也影射出了谷歌在技術發展的一個隐患。
從數年來谷歌在 AI 的發展中來看,雖然它的成果和進展依舊處于全球科技巨頭的第一梯隊,但近年來(尤其是在生成式 AI)相比微軟、Meta 來說似乎并沒有那麽耀眼。
早在去年 ChatGPT 引爆生成式 AI 之際,微軟和谷歌在火拼的過程中,谷歌的動作多次慢半拍;後來被曝出内部像當時 Bard 這樣的産品早就有了,隻是高層的顧慮太多,遲遲沒有推進。
或許就是谷歌内部事事追求 " 政治正确 ",用力過猛,反而造成了在技術上的笑話。
One More Thing
在馬斯克多條怒噴谷歌的帖子中,有這麽一條是比較有意思的。
他 po 出了四張賈斯廷 · 特魯多的照片,穿戴不同民族服裝,甚至還有黑人版的照片,并附上文案:
我不敢相信 Gemini 竟然生成了這些特魯多的假照片。
但實際上,這些照片都是特魯多的真實照片,也因爲這些照片他此前深陷過 " 種族歧視 " 的輿論中。
不得不說,馬斯克,你是懂陰陽的。