當地時間 22 日,OpenAI 的創始人山姆 · 奧特曼、總裁格雷格 · 布羅克曼和首席科學家伊利亞 · 蘇茨克沃通過公司博客聯合撰文,稱人類必須緩和當今人工智能技術的風險,超級智能将需要被特殊對待和協調。他們在題爲《超級智能的治理》的文章中寫道," 我們最終可能需要類似于 IAEA(國際原子能機構)的東西來進行超級智能方面的努力;任何超過一定能力(或資源,如計算)門檻的努力都需要接受國際權威機構的檢查,要求進行審計等。"(界面)