文 | 鄧詠儀 林炜鑫 周鑫雨
特邀作者 | 孫佳怡
編輯 | 蘇建勳
" 你同意開發人員擁有對技術所引發問題的豁免權嗎?" 一名議員提問。
" 我不知道這個問題的正确答案。" 思考了幾秒後,Altman 依然沒能給出明确答案。
這是立法機構和 AI 企業首次同台交鋒的一個切面——北京時間 2023 年 5 月 16 日,OpenAI 創始人兼 CEO Sam Altman 出席了美國國會召開的主題爲 "AI 監管:人工智能的規則 " 的聽證會。在美國國會大廈,這位風頭正盛的創業者首次接受立法者的質詢。
在經曆 ChatGPT 推出、全球爆火,成爲 AI 領域最炙手可熱的公司後,這家年輕公司的另一面是面臨來自美國監管機構、公衆的數據、倫理争議——這也是監管機構召開此次會議,推進立法的原因。
制圖:周鑫雨
這場持續近三小時的聽證會,圍繞着版權侵害、虛假内容、影響選舉、數據安全、大公司壟斷、政府監管途徑等議題展開。接受質詢的對象除了 OpenAI CEO Sam Altman,還有 IBM 副總裁兼首席安全官 Christina Montgomery,以及紐約大學教授 Gary Marcus。後者以質疑當代 AI 技術而聞名。在叫停 GPT-5 的聯名信中,Marcus 也簽下了自己的名字。
隻是相較于在中美均引發高度關注的 TikTok 聽證會,這場質詢的熱度并不高。聽證會所在的 226 會議廳,大小隻有 TikTok 聽證會的一半,隻能容納大約 30 多人。直到開場,參與質詢的議員也沒有填滿整個廳。當聽證會進行到一半時,不少議員已經離席。
在大洋彼岸,中國 AI 廠商對這場聽證會似乎也興趣寥寥。百度的一位 AI 相關業務員工告訴 36 氪,這場聽證會 " 不是找 OpenAI 算賬 ",而是推動監管,距離國内廠商的業務較爲遙遠。另一家互聯網企業 AI 業務條線的員工表達了類似的觀點:" 按照目前國内的大模型能力和業務規模,即便出了海,都不足以讓美國監管對其産生什麽實質性影響。"
OpenAI 聽證會現場 拍攝:孫佳怡
縱觀整場聽證會,協商的意味遠大于質詢。參議院的大多問題不算尖銳,Altman 的闡述極少被打斷。相較于 Meta 創始人紮克伯格和 TikTok CEO 周受資在聽證會上的待遇,Altman 顯然要幸運得多。
過去一段時間,他四處奔走,希望讓立法者更理解 ChatGPT。5 月初,他同谷歌、微軟 CEO 一道去白宮參加哈裏斯副總統的座談會。聽證會的前一天,Altman 和大約 60 名衆議院議員(兩黨各占一半)共進晚餐。知情者稱,Altman 在聚會上展示了 ChatGPT 的多種用途以吸引在場者,他們中的大多數認爲 AI 監管很有必要。
外界隻能通過 5 月 9 日的一場直播對談,聽到他針對 AI 的新一輪思考:後續 AI 行業會分化,開源模型負責解決大部分經濟活動,閉源的超級智能則緻力于更高的創新發明;AI 監管需要建立類似保證核不擴散的原子能機構一樣的國際組織,任何超出能力閥值的系統都要接受審核。
在這場聽證會上,Altman 對 5 月 9 日的觀點進行了重申——他支持對 AI 監管,提議爲 AI 廠商上牌照。與此同時,他強調 AI 的發展會創造更多就業崗位,以及未來引領技術創新的将會是大廠商,而非開源社區。
社交媒體監管失敗後,國會欲提前奪回主導權
整場聽證會中,包括主席以及及多位議員都強調的核心議題,是如何避免重蹈覆轍——自 2016 年以來,美國立法者們花了多年時間讨論如何監督社交媒體,卻始終沒有讨論出新的重要規則,導緻錯失了對 Meta、Youtube 等互聯網巨頭的多個監管節點。
比如聽證會開幕緻辭中被反複提及的 " 第 230 條 ":1996 年,美國國會通過《1996 年通信規範法》230 條款,旨在保護網絡服務商免受用戶帖子的責任。後續的發展證明," 第 230 條 " 是一把 " 雙刃劍 ":既促進了社交媒體的蓬勃發展,也爲社交媒體的監管困難埋下伏筆。
因此,監管機構如今希望在 AI 領域的監管能夠盡量前置。" 當年,我們面對社交媒體時,我們有着一樣的選擇時點(指出手監管),但我們未能抓住這個機會,結果導緻互聯網中掠食者群起、有毒内容泛濫," 聽證會主席 Blumenthal 在開場辭中表态," 如今我們有義務在 AI 領域阻止這些危險來臨。"
議員們拿出社交媒體的幾個老大難問題——用戶隐私、創作者版權、未成年人保護等角度,輪番詢問 Altman Altman。
首先,Altman Altman 數次否認 OpenAI" 是社交媒體 ",對議員解釋 ChatGPT 的運行原理,說明爲什麽 ChatGPT 與社交媒體不同。
比如,針對社交媒體爲了搶奪人們注意力和成瘾問題,Altman Altman 表示,OpenAI 沒有建立起基于廣告的商業模式,所以也并不會建立起詳細用戶畫像,吸引用戶使用。" 實際上,我們并不希望他們用得越多越好,相反,我們還希望他們用得少一點,因爲我們的 GPU 不夠了。" 他說。
圍繞個人隐私安全和版權保護等熱門話題,議員們展開了密集的質疑。其中,虛假信息、數據來源是最受關注的一項——或許這與即将到來的 2024 年美國大選相關。議員們普遍擔憂 AI 大模型相關技術将損害選舉公正性、操縱輿論,制造虛假新聞。
Altman 并不避諱如今仍未能解決的許多難點,如 ChatGPT 的 " 幻覺 " 問題——簡言之,就是機器還是會一本正經地 " 胡說八道 "。在這個問題上,他持續呼籲監管、公司政策和公共教育的介入," 我認爲我們還需要規則、指導方針,以及大模型公司在信息披露上的預期。" 他表示。
其實,OpenAI 今年已經針對選舉場景實行了一些措施,比如禁止 " 生成大量競選材料 ",但真正到了大選時效果如何,還有待确認。
事實上,Altman 對議員們的許多問題都表示肯定和關切,但談及具體落地的保護措施,卻很難提供清晰的方案,這也難以讓議員們信服。
當參議員 Amy Klobuchar 提及,生成式 AI 會讓人們都去問 ChatGPT,而不是看當地的媒體,如何保障創作者權益時—— Altman 承認保護當地新聞很重要,但卻拒絕提供确保創作者的收入和對其付費的細節。
回應熱點:AI 将創造更多就業,不應暫緩大模型研究
聽證會上,議員們對 AI 大模型所将引發的社會問題表達了深切的憂慮,最先被抛出的是就業。
" 盡管媒體大肆宣傳我們與 AGI(通用人工智能)并沒有那麽接近,但我想說,我們現在所擁有的隻是我們将的 AI 的一小部分樣本。"Gary Marcus 認爲,人們不應該小看 AI 對就業帶來的影響。
Sam Altman 和 Christina Montgomery 都否認了這一論調。
"GPT-4 是一個工具,而不是一個生物,認識到這點很重要。"Altman 認爲,GPT-4 目前仍然可以很好地爲人們所控制和使用,它會讓一些工作自動化,甚至被替代掉。但人類利用 AI 大模型可以擁有更多能力、更多時間追求自己喜歡的事物,這将創造出更多工作機會。
IBM 的 Christina 則認爲,AI 大模型 " 将會改變每一項工作 ",如今的工作重點應該是做好新老工作的過渡——她更是承諾,到 2030 年,IBM 将培訓 3000 萬個人掌握當今社會所需的技能。
任何新技術的快速普及過程中,都會存在壟斷隐憂。聽證會上,議員用 Web3 的例子類比:去中心化技術卻以少量公司爲掌握中心。對 AI 技術壟斷可能帶來的意識形态風險,他們表達了擔憂。
對此,Altman 認爲技術開源并不是最佳的解法。"(開源)有好處也有危險。" 即便開源能破除大公司壟斷,但現階段能提供模型能力與大公司抗衡的開源社區依然較少,同時,技術的開源會增大 AI 風險的擴散範圍——基于這一原因,Altman 認爲現階段由少數公司掌握技術能夠爲提高 AI 的可控性帶來好處。
而在 3 月,GPT-4 的強大效果已經引發學術界的擔憂,以 Elon Musk 和 Yann LeCun 爲首的一大批科學家、業界人士在聯名信上簽字,呼籲暫緩至少 6 個月的類 GPT-5 産品的研究。
而 Altman 和 Christina 都認爲,單純暫停 6 個月研究 " 可能用處不大 ",更重要的點不是放在限制研究,而是應該放在落地應用、面向公衆開放前的審核、評估環節。
Altman 表示,OpenAI 在開發完 GPT4 之後,等了超過半年才推進落地應用,而目前 OpenAI 也并沒有 GPT-5 的研究計劃,他認爲目前的研究進度仍在掌握範圍内。" 如果我們訓練過程中真的遇到了不能理解的情況,那是需要停下,但如今我們還沒看到這樣的趨勢。"
雙方達成監管共識,Altman 提議給 AI 企業上牌照
Altman 并不排斥來自政府的監管。
在聽證會開始不久,他就明确表态,政府的監管對于減少模型的風險 " 将至關重要 "。同時他也建議,監管舉措不應扼殺創新,"AI 公司必須滿足相關安全要求,也要有足夠靈活的管理制度,以适應新的技術發展 "。
當議員們讨論起當年關于社交媒體的第 230 條法規時,Altman 提出了他的想法——像 ChatGPT 這樣的 AI 需要一個新的制度," 我們要想出一個責任框架,這是一個超級重要的問題。" 早在聽證會之前,他曾多次表示,對于 AI," 我們需要一部新法律 "。
作爲 AI 賽道最有代表性企業的創始人,Altman 在聽證會上獲得了充分的機會闡釋他對監管方式的思考。就美國政府應該如何監管 AI 公司,他提了三條建議:
1. 組建一個新的政府機構,負責給 AI 廠商提供許可證,并吊銷不符合政府标準的廠商的許可證。
2. 爲 AI 大模型創建一套安全标準,包括評估其風險,大模型必須通過一些安全測試。
3. 指派第三方專家獨立審核 AI 産品的各方面指标。
與此同時,Altman 支持創立一個爲 AI 制定相關标準的國際組織,由美國領導。他說,各國政府如何監管核武器是有先例的。參與質詢的前紐約大學教授 Gary Macurs 也呼籲成立專門的政府機構,以解決 AI 可能的風險。
聽證會結束後,Altman 接受媒體采訪 拍攝:孫佳怡
聽證會結束後,Altman 還沒法立即回家。快速回答完場外十幾家媒體的問題後,他還要趕去參加國會 AI 核心小組召開的閉門會議——會議的結果或許會引導 AI 監管的走向。
對 OpenAI 而言,一次聽證會還遠遠不夠。以 ChatGPT 爲代表的 AI 大模型要解決的監管難題,才剛剛開始。