圖片來源 @視覺中國
文 | 元宇宙日爆,作者 | 凱蒂,編輯 | 文刀
又一封 " 群星雲集 " 警示 AI 風險的公開信來了,這封信的内容簡短但措辭炸裂:減輕 AI 帶來的滅絕風險,應該與管控流行病和核戰争等其他社會級規模的風險一樣,成爲一項全球優先事項。
5 月 30 日,這紙原文隻有 22 個單詞的聲明,出現在美國非營利組織 " 人工智能安全中心(Center for AI Safety)" 的官網上,超過 350 名 AI 領域的企業界和學界名流爲之簽名。
與 2 個半月前 " 生命未來研究所 " 發出的、上千名人簽名呼籲 " 暫停訓練大模型 6 個月 " 的那封公開信相比,最令人矚目的是,這次,OpenAI、谷歌 DeepMind 和 Anthropic 的 CEO 都簽了名。
值得注意的是,在簽署 "22 字聲明 " 前,OpenAI、谷歌、Anthropic 三家公司的負責人都出席了 5 月 4 日白宮發起的 AI 風險治理會議。面對風險管理,AI 三巨頭近段時間顯得比政府還着急。
最近,這三家公司 CEO 頻繁地與歐洲多國首腦會晤,試圖影響正在推進中的歐盟《人工智能法案》,這項法案很可能影響 OpenAI 等公司的生成式大模型進入歐洲市場,而那裏是流量新神話締造者 OpenAI 都暫未拿下的 " 處女地 "。
求管控 AI 風險的背後,是 AI 公司們滿滿的市場 " 求生欲 "。
三巨頭留名最新 AI 風險聲明
"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."
22 個單詞組成了一紙《人工智能風險聲明》,将 AI 帶來的風險直接以 " 滅絕(extinction)" 措辭,嚴重程度堪比 " 流行病(pandemics)" 和 " 核戰争(nuclear war)",管控緊迫度被表述爲 " 應該成爲全球優先事項 "。
5 月 30 日,在非營利組織 " 人工智能安全中心(Center for AI Safety)" 官網曬出的這紙聲明下,有包括科學家、企業領導人在内的 350 多人簽了自己的名字。
AI 三巨頭的 CEO 的名字出現在名單中
" 我們必須讓這個問題上公開化,因爲許多人隻在彼此之間默默地交談。" 人工智能安全中心的執行主任丹 · 亨德裏克斯(Dan Hendrycks)在談到聲明的目的時表示,一句話聲明的簡明扼要是特意爲之,目的是讓更多的科學家建立 " 廣泛聯盟 ",因爲一些科學家可能還沒有就 AI 有哪些風險以及預防風險的最佳解決方案達成一緻。
350 個簽名中,打頭的兩位是圖靈獎得主傑弗裏 · 辛頓 ( Geoffrey Hinton ) 和約書亞 · 本希奧(Youshua Bengio),緊跟着出現了戴米斯 · 哈薩比斯(Demis Hassabis)、山姆 · 奧特曼(Sam Altman)和達裏奧 · 阿莫迪(Dario Amodei)三位,他們分别爲谷歌 DeepMind、OpenAI 和 Anthropic 三家全球知名人工智能開發公司的 CEO。
一些中國知名學者也簽了名,如清華大學智能産業研究院院長張亞勤、中科院自動化研究所的曾毅教授、清華智能産業研究院的副教授詹仙園。
如果把 " 用知識服務人類 " 視作知識分子的社會責任,專家、學者的簽名很好理解,被譽爲 "AI 教父 " 的辛頓今年 4 月從谷歌辭職,此後一直在公開場域表達對人工智能失控的擔憂;本希奧曾在今年 3 月非營利組織 " 未來生命研究所(Future of Life Institute)" 發表的那一封 " 暫停巨型 AI 實驗 " 公開信上簽過字。
但在 2 個月前的那封信上,谷歌 DeepMind、OpenAI 和 Anthropic 這三家公司的負責人并沒有簽名,相比這次的 "22 字聲明 ",那封信還詳細闡述了 AI 可能帶來的各種具體風險,甚至給出了明确的風險管理原則,至今已積累收集到 31810 個簽名。
上次那封信引發的 AI 圈内的明顯分歧是:到底應不應該爲了風險而暫停 AI 實驗。
當時,人工智能領域的學者吳恩達當時在 LinkedIn 上表示,全面暫停 AI 訓練 6 個月的想法是一個糟糕、不切實際的想法。後來,OpenAI CEO 山姆 · 奧特曼 Sam Altman 更直觀地表達了暫停的無意義," 我們暫停 6 個月,然後呢?我們再暫停 6 個月?"
但這次,AI 企業三巨頭領導者帶頭簽了這個風險闡述模糊但措辭嚴峻的 "22 字聲明 " 從他們表态對聲明的認同中,透露出管控 AI 風險的緊迫性。
短短的兩個月半内,是什麽緻使 AI 公司們都轉變了态度?
OpenAI 訪問量增速放緩
現在,人類即便沒有被 AI 滅絕,但生成式 AI 在作惡者的驅使下露出了 " 黑暗面 "。
比如,AI 的仿聲仿貌功能正在被用作詐騙工具,AI 生成圖片、文字的能力不僅被用來造假新聞,造出的 " 黃謠 " 直接傷害到普通個體的聲譽。
相比生成式 AI 對常識 " 胡說八道 "、會陷入邏輯陷阱、解數學題不太行、數據隐私安全等缺陷,受害案例顯示出的 AI 破壞力更具體、更直觀地呈現在公衆眼前。對 AI 開發公司來說,最直接的影響是那些剛剛開放 AI 應用給公衆的開發公司,還能在負面輿論中的獲得多少增量市場?
以訪問量規模增長最快的、提供文本生成應用 ChatGPT 的 OpenAI 爲例,其網頁訪問量從去年秋季的每月約 2000 萬次增長到 2023 年 4 月的 18 億次,刷新了互聯網流量增長神話。但從網絡分析公司 SimilarWeb 收集的數據看,OpenAI 的網頁訪問量增速在放緩。
OpenAI 的網頁訪問量增速放緩
OpenAI 網頁的流量貢獻主要來自于美國本土,份額能占到 10.25%,其次是印度(8.82%)、日本(7.48%)、印尼(3.84%)、加拿大(3.06%),每月的增量也來自這些國家,其中從日本獲得訪問增量最多,打到 28.86%。而俄羅斯、中國及歐洲各國基本沒有爲之貢獻明面的流量,這些國家和地區的網民訪問 OpenAI 是受限的。
OpenAI 自己切斷了這些市場,最大的原因是各國對互聯網的管理政策不一。相比俄羅斯和中國,歐洲似乎是更令人工智能公司們渴望的市場,然而,歐盟已經明确了針對人工智能立法。
此後,OpenAI、DeepMind、Anthropic 三家公司的 CEO 都出現在歐洲。
三位 CEO 在歐盟立法前齊現歐洲
4 月 27 日,歐洲議會成員已經就《人工智能法案(Artificial Intelligence Act)》提案達成臨時政治協議。5 月 11 日,歐洲議會兩個委員會通過了對《人工智能法案》(以下簡稱《法案》)提案的談判授權草案。這一草案将于 6 月 12 日到 15 日提交歐洲議會全會表決,之後歐洲議會将與歐盟理事會就法律的最終形式進行談判。
《法案》的立法者根據風險級别對不同的人工智能工具進行分類,從最低到有限、高和不可接受。使用這些工具的政府機構和企業将根據風險級别承擔不同的義務。《法案》還将嚴格禁止 " 對人類安全造成不可接受風險的人工智能系統 ",包括有目的地操縱技術、利用人性弱點或根據行爲、社會地位和個人特征等進行評價的系統等。
如果《法案》順利頒布,這将是人類曆史上首部針對人工智能的法律。由于《法案》适用于在歐盟區内運行的所有人工智能系統,領導 AI 技術的美國企業如若想到打入歐洲市場,顯然将會受到制約。
比如,《法案》要求,開發生成式 AI 工具的公司必須披露他們是否在系統中使用了受版權保護的材料。對于用各種來源的海量數據訓練大模型的 AI 公司而言,這個要求将直接把他們攔在歐洲之外。
OpenAI、DeepMind、Anthropic 都開始關注歐洲動向。
5 月下旬,OpenAI CEO 山姆 · 奧特曼多次前往歐洲,分别與西班牙、波蘭、法國和英國的政府首腦進行了會談,讨論人工智能的發展潛力、威脅以及監管等問題。DeepMind 的 CEO 德米斯 · 哈薩比斯、Anthropic 的 CEO 達裏奧 · 阿莫迪也與英國首相蘇納克會過面。
英國首相蘇納克會見 AI 三巨頭的 CEO
與歐洲各國首腦交流,AI 科技公司們試圖以此影響《法案》進程。不止如此,山姆 · 奧特曼還用演講、采訪等各種方式面向歐洲大衆發聲,希望 " 民意 " 與他們站在一起。
在倫敦大學學院的演講中,奧特曼堅持着他的觀點:人們對 AI 的種種擔心有道理,但 AI 的潛在好處要大得多。談到 AI 監管,奧特曼表示 OpenAI 歡迎監管,但需要 " 正确的監管方式 ",因爲 " 過度監管可能會損害小公司和開源運動 "。
5 月 25 日,奧特曼對英國媒體表達他對《法案》的看法," 很多措辭是不恰當的," 他認爲,目前的歐盟 AI 法案草案将會造成過度監管的情況," 但我們聽說它将調整,他們還在談論這件事。"
距離《法案》的最終表決還有不到半個月時間,奧特曼的 " 遊說之旅 " 還在繼續。公開消息顯示,奧特曼接下來會與歐盟産業主管埃裏 · 布雷頓(Thierry Breton)會面,讨論歐盟應如何實施在人工智能方面全球領先的規則。
一系列的歐洲行之後,AI 三巨頭的三位 CEO 在 "22 字聲明 " 下簽字,認同聲明中所述的全球優先管控 AI 風險之論。姿态背後是 AI 公司們試圖在管控下擴大市場的 " 求生欲 "。
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App