作者 | 周愚
編輯 | 鄧詠儀
當監管的目光開始頻頻投向 AI,科技巨頭們正在用自願倡議的方式占據主動權。
美國時間 7 月 26 日,OpenAI、微軟、谷歌和 Anthropic 等四家 AI 領域巨頭宣布成立行業組織 " 前沿模型論壇 "(Frontier Model Forum),目的是 " 确保前沿 AI 開發的安全和負責任 "。
7 月初,OpenAI 曾就 " 前沿 AI 監管 " 發文,将 " 前沿 AI" 模型定義爲:具有造成嚴重公共安全風險能力的高性能基礎模型。
來源:OpenAI 推特
聲明指出,論壇的核心目标包括如下四點:
推動人工智能安全研究,促進前沿模型負責任的發展,最大限度降低風險,實現對 AI 能力與安全的獨立、标準化評估。
确定負責任前沿模型開發和部署的最佳做法,向公衆普及 AI 技術的性質、能力、限制與影響。
與政策制定者、學者、民間社會和公司合作,并分享有關 AI 信任和安全風險的知識。
針對解決當前社會最大挑戰,如氣候變化減緩和适應、早期癌症檢測和預防,以及網絡威脅應對,支持開發相關應用。
這些目标與四家公司上周五在白宮作出的自願承諾基本一緻,當時共同作出承諾的公司還有 Meta、亞馬遜和 Inflection。
" 開發人工智能技術的公司有責任确保其安全、可靠,并處于人類控制之下。" 微軟總裁布拉德 · 史密斯在聲明中強調。
論壇的成立體現了行業巨頭在 AI 安全方面的積極态度,但這些公司也希望借此換取更大的主動空間——用主動合規避免被動監管,甚至在一定程度上參與規則的制定。
四家公司發布的聲明中表示," 前沿模型論壇 " 希望支持和推動現有政府和多邊倡議在人工智能方面的工作,包括七國集團(G7)廣島 AI 進程,經合組織(OCED)關于 AI 風險、标準與社會影響的工作,以及美歐貿易和技術理事會(TTC)的相關工作。
在接下來的數月内,該論壇将首先建立起一個顧問委員會,以幫助指導論壇的戰略和優先事項。聲明稱,該委員會将 " 代表不同的背景和觀點 "。在未來幾周内,還将與民間社會和各國政府,就論壇的設計與合作方式展開磋商。
未來一年,前沿模型論壇将重點關注确定最佳做法、推動 AI 安全研究、促進企業與政府間信息共享等三個關鍵領域,并歡迎其他前沿 AI 模型開發者加入論壇。