IT 之家 8 月 30 日消息,OpenAI 一直緻力于開發能夠造福全人類的人工智能技術,然而最近的一份報告揭示了一個令人擔憂的現象:近一半曾專注于超級智能 AI 長期風險的研究人員已經離開了這家公司。
圖源 Pexels
據 Fortune 報道,OpenAI 前治理研究員 Daniel Kokotajlo 表示,在過去幾個月裏,OpenAI 幾乎一半的 AGI 安全團隊成員已經離職。這引發了外界對公司是否正在忽視 AI 安全性的擔憂。
AGI 安全研究人員主要負責确保未來開發的 AGI 系統不會對人類構成生存威脅。然而,随着 OpenAI 越來越專注于産品和商業化,研究人員的離職意味着公司的安全研究團隊正在逐漸縮減。
Kokotajlo 指出,自 2024 年以來,OpenAI 的 AGI 安全團隊已經從約 30 人減少到 16 人左右。他認爲,這并不是一個有組織的行動,而是個人逐漸失去信心而離職。
OpenAI 發言人對此表示,公司爲能夠提供最有能力、最安全的人工智能系統感到自豪,并相信自己具有解決風險的科學方法。
IT 之家注意到,今年早些時候,OpenAI 聯合創始人、首席科學家 Ilya Sutskever 宣布辭去 OpenAI 職務,其領導的負責安全問題的 " 超級對齊 " 團隊也遭到解散。