出品|虎嗅科技組
作者|齊健
編輯|陳伊凡
頭圖|直播截圖
"AI 會出錯。"
在當地時間 5 月 16 日上午,OpenAI 首席執行官 Sam Altman 在美國國會舉行的關于人工智能監管的聽證會上說。
過去幾個月,OpenAI 的産品 ChatGPT 在全球掀起了新一輪人工智能浪潮,猶如一隻橫沖直撞的 " 燃燒彈 ",沖擊了各個領域,點燃一把火,與之相關的生成式 AI 的監管也在全球範圍展開。
美國政府雖然打起了十二分的精神,并從多個層面提出了高度重視。但 Sam Altman 卻并沒有如周受資抑或是紮克伯格一樣被美國政客 " 圍攻 ",這場聽證會甚至比多數矽谷科技公司參加過的國會聽證會都短,隻有 2 小時 40 多分鍾。
在這個過程中,并沒有呈現出劍拔弩張,會議結束後也是一片安靜祥和。
會後,Sam Altman 甚至像個大學生一樣,跑到 IBM 的首席隐私和信任官 Christina Montgomery 面前主動握手,然後又跑到主席台前,跟聽證會小組主席 " 虛心請教 " 了一番。
有趣的是,許多參議員似乎對 Sam Altman 十分器重,參議員 John Neely Kennedy 甚至詢問 Sam Altman 他本人是否有資格參與組建監管 AI 的聯邦機構。不過 Sam Altman 似乎對這份工作并沒什麽興趣,他說," 我喜歡我現在的工作。"同時,他也表示 OpenAI 将會盡快向國會提交一份他們認爲适合這份工作的人員名單。
而 Sam Altman 在這場聽證會中的姿态也非常低,對于生成式 AI,他似乎也有迷茫和困擾。"面對日益強大的 AI 模型,政府監管機構的幹預對于控制相關風險來說至關重要。" 他表示。
與 Sam Altman 一同參與這場聽證會的還有一直在社交媒體上對 AI 研究提出質疑的 AI 學者,紐約大學心理學和神經科學名譽教授 Gary Marcus,以及剛剛宣布用生成式 AI 替換 7000 餘名人類員工的 IBM 的首席隐私和信任官 Christina Montgomery。
Christina Montgomery,Gary Marcus,Sam Altman(左到右)
本場聽證會聚焦的問題也正是美國政府和全社會廣泛關注的問題,其中包括:
1. AI 是否會生成危險内容
2. AI 是否會威脅到美國的國家安全
3. AI 是否會侵害公民的隐私,以及數據權利
4. AI 是否會影響就業
5. 對 AI 的監管,是否會影響美國在國際競争中的地位
對此,Sam Altman 及其它兩位證人一一做出了回答。
美國應帶頭監管人工智能
在聽證會上,美國議員提出應該組建一個專門監管 AI 的新機構。Sam Altman 非常認可這一做法。
Sam Altman 在聽證會上提出 OpenAI 在這方面的 3 個計劃:
成立一個新的政府機構,負責審批大型 AI 模型。并對不符合政府标準的公司進行處理,包括吊銷他們的 AI" 執照 "。
爲 AI 模型創建一套安全标準,用以評估其風險。AI 大模型必須通過某些安全測試,例如它們是否能夠 " 自我複制 " 或是 " 出逃(擺脫人類控制)"。
要求獨立專家對模型在各個指标上的表現進行獨立審核。
有國會議員提出關于 AI 研究的國際監管問題時,提到了世界各國政府在監管核武器方面都有先例。Sam Altman 表示了贊同,并且他認爲美國應該帶頭監管人工智能, "如果每個國家對每個司法管轄區都有自己的政策和法規,那麽 AI 公司就需要針對不同地區重新訓練模型,如果沒有全球協同,這些公司将很難運作。"
在這方面,Gary Marcus 也表示支持,并提出應該像對待原子彈一樣,成立一個類似國際原子能機構的國際組織,以應對人工智能的風險。
在立法方面,美國政府爲監管社交媒體平台專門制定了 230 法案,該法案免除了在線服務對用戶發布内容的責任,由此大幅促進了社交媒體的興起。新興的生成式人工智能,在内容生産上與社交媒體不無相似之處。這也使得美國政府在立法方面,直接将 AI 與社交媒體相對比。探讨 AI 技術是否适用 230 法案,AI 公司是否應該對 AI 生成的内容負責。
對此,Sam Altman 認爲 AI 并不适用 230 法案,他表示生成式人工智能工具需要一套新的責任框架。例如 AI 研發機構對 AI 生成的内容需要負有一定的責任。
沒有訓練更高版本的 GPT,未來半年内也沒計劃
在聽證會上,有議員提到了此前熱議的 " 暫停大規模人工智能模型研發 " 聯名信。
作爲聯名信簽署人之一,Gary Marcus 解釋說,聯名信的目的并不是要求暫停研發 AI,而是希望在具備規範、安全的 AI 管理措施之前,暫停部署比 GPT-4 更大的 AI 模型。他認爲現階段,要将這些 " 超級 AI" 交給 1 億普通人使用,還是太快、太冒險了。
Sam Altman 則表示,在完成 GPT-4 的訓練後,OpenAI 等了 6 個月才上線。他表示," 我們目前沒有在訓練更高版本,例如 GPT-5。我們在未來 6 個月内也沒有這樣的計劃。"
但他認爲聯名信的框架是錯誤的,他說," 對于 AI 來說,最重要的是安全審核,紅藍隊模拟(AI 的安全對抗模拟)等安全措施。通過這些在部署前達到安全标準。"Sam Altman 認爲,暫停 6 個月并不是一個有效的做法,"如果暫停 AI 研發 6 個月,AI 研發可能就會與時代脫節。6 個月之後我們要怎樣?再停 6 個月嗎?"
不過,Sam Altman 也認爲,當發現一些不理解的東西時 , 确實需要停下來。他說,"目前我們對下一個模型就抱有憂慮,我們非常擔心研發過程中可能會産生一些危險的内容,更不用說部署了。"
此外,Sam Altman 還表示支持 " 要求 AI 公司在推出人工智能産品前評估人工智能産品風險 " 的新規定。他在提交給委員會的書面證詞中表示 , 政府應 " 促進平衡的激勵措施和安全監管 , 同時确保人們能獲得技術帶來的益處 "。
AI 大模型的研發主要集中在少數大公司手中,也引起了美國政府的關注。
參議員 Cory Booker 表示,他很擔心 AI 領域的 " 大規模企業集中度 " 問題," 目前,OpenAI 與微軟合作,類似的大模型公司 Anthropic 則由谷歌支持。"。他認爲,随着這些公司變得越來越大、越來越強大,它們對人們生活的控制和影響也将越來越大,并有可能在商業和技術上實現壟斷。
對此 Sam Altman 認爲,AI 大模型的研發相對困難,隻有少數企業能夠研發出 AI 大模型。這并不會造成壟斷,反而會在一定程度上降低監管難度。
生成式 AI 的監管還有很長的路要走
事實上,美國政府對于這波生成式 AI 熱潮的關注與擔憂已經有一段時間了,其在監管上也走得更早。美國商務部在 4 月 11 日已就相關措施正式公開征求意見,包括新 AI 模型在發布前是否應經過認證程序。征求意見期限爲 60 天。
對于生成式 AI 的監管,與上一波人工智能的不同在于,其能夠将數據跨境、知識産權、個人信息保護的問題放大化。因爲過去的人工智能更多是針對某種特定場景,而生成式 AI 涉及到更多數據和通用大模型。涉及到的供應鏈角色更多,例如大模型提供商、在大模型之上做應用的服務商、還涉及存儲數據的雲廠商。
" 生成式 AI 對于監管行業來說,是一個太新的事物,而且新技術發展很快,但我們現在針對算法、技術等立法監管并不能完全覆蓋目前出現問題,對于監管來說,是很大的考驗。" 觀韬中茂律師事務所合夥人王渝偉曾告訴虎嗅,王渝偉長期進行網絡安全數據合規方面的法律工作。
更早之前,今年 1 月 26 日,美國 NIST(國家标準與技術研究院)發布了《AI 風險管理框架 1.0》。這份框架,包括治理、映射、測量和管理的四個部分,治理指要在組織的制度流程、組織建設、組織文化、技術能力等方面踐行 AI 風險管理框架;映射主要用于确定特定場景與其對應的 AI 風險解決方案;測量主要采用定量和 / 或定性的工具、技術和方法來分析、評估、測試和監控 AI 風險及其相關影響;管理主要是将相關資源分配給相應的 AI 風險,進行風險處置。治理是一個交叉模塊,融入并影響其他三個模塊。
在框架中也提到了 AI 系統的可說明性、可解釋性、可追責、透明性的問題。例如,AI 可信度特性之間可能相互影響,全面的 AI 風險管理需要在 AI 可信度特性之間進行權衡取舍。
另外,優化可解釋性和隐私增強性之間會存在矛盾;或者在數據較稀疏的情況下,隐私增強技術可能導緻有效性降低。過度關注某一方面特性,例如:高度安全但不公平的系統、有效但不透明和不可解釋的系統以及不準确但安全、隐私增強和透明的系統都是不可取的。
從這份框架以及美國 4 月頒布的《人工智能問責政策征求意見》可以看出美國在制定人工智能監管方面政策時,重點在于問責明确。
5 月 5 日,美國國家科學基金會(The National Science Foundation)宣布将撥款 1.4 億美元(約合人民币 9.67 億元),成立 7 個國家級人工智能研究機構,确保美國在 AI 領域保持領先的同時,遏制 AI 引發的道德、社會問題等。
政府還承諾爲政府機構發布指導方針草案,以确保對人工智能的使用保障 " 美國人民的權利和安全 "。有消息稱,美國政府已得到 Anthropic、Google、Hugging Face、Microsoft、NVIDIA、OpenAI 和 Stability AI 六家公司的承諾,将提交他們的人工智能系統供專家社區進行公開評估,這些公司已同意在 8 月的一次網絡安全會議上提交其産品以供審查。
美國總統拜登也曾表示,人工智能是否危險 " 有待觀察 "。他任命的一些高級官員承諾,如果以有害方式使用該技術,他們将進行幹預。白宮在 13 日發布的文章中提到,美國總統科技顧問委員會(PCAST)正在組建一個生成式人工智能工作組。該工作組将幫助評估人工智能關鍵機遇和風險,并就如何最好地确保這些技術的開發和部署盡可能公平、負責和安全提供意見。目前已公布的專家名單中,就包括著名華人數學家陶哲軒,以及 AMD 的首席執行官蘇姿豐。
美國時間 5 月 16 日早些時候,在華盛頓郵報的報道中,一位衆議院助手稱,國會人工智能核心小組将于聽證會後與奧特曼舉行僅限特定人員參加的簡報會。這名助手說,該閉門會議将由衆議院議長 Kevin McCarthy 和衆議院少數黨領袖 Hakeem Jeffries 共同主持。
在本場聽證會上,兩名參議員則專門針對這一問題微軟及 OpenAI 就版權付費問題向 Sam Altman 提出質疑。對此,Sam Altman 表示,OpenAI 将會拿出保護地方新聞業的相關舉措,但也沒有具體回應如何在 AI 模型訓練過程中保護内容創作者版權權益的問題。