政策研究部門核心人員離職!
Rosie Campbell-OpenAI 的政策研究員,也是原研究科學家、政策研究負責人 Miles Brundage 親密共事的夥伴。
再次呼籲人工智能企業重視 AGI 造福人類的願景!
她在 X 上說到 " 這是我在 OpenAI 工作約 3.5 年後的最後一周。我先是從事 API 安全工作,然後轉到了政策研究部門,在那裏我與 @Miles_Brundage 緊密合作,共同研究人工智能治理、前沿政策問題以及通用人工智能(AGI)的準備情況。"
全文翻譯:
大家好,在這裏工作了将近三年半後,我即将離開 OpenAI。
我一直深受确保安全和有益的通用人工智能(AGI)使命的驅動,而在 Miles 離職和 AGI 準備團隊解散之後,我相信我可以更有效地在外部追求這一目标。
在這裏工作期間,我處理了一些前沿的政策問題,比如危險的能力評估、數字意識和治理代理系統,我很高興公司支持那些被忽視的、有點奇怪的政策研究,這些研究在認真考慮變革性 AI 的可能性時變得重要。
有點讓我心碎的是,我看不到一個讓我繼續在内部從事這種工作的地方。
與如此傑出的人們一起在這樣一個關鍵時刻從事改變世界的技術工作,這真是我的榮幸。
随着成長,變化是不可避免的,但過去大約一年中的一些變化讓我感到不安,以及塑造我們文化的許多人的離去。
我真誠地希望,對我來說使這個地方如此特别的那些東西能夠被加強而不是削弱。
爲此,冒着冒昧的風險,我要留下我的建議:
記住我們的使命不僅僅是 " 構建 AGI"。爲了确保它造福人類,還有很多事情要做。認真考慮我們目前的安全方法可能不足以應對我們認爲這十年可能會出現的、能力大得多的系統。
盡量說真話,即使這些話不方便或難以面對。
以适當的嚴肅态度行事:我們正在構建的不僅僅是另一個科技産品。
在這裏我學到了很多,我非常感激能與你們一起經曆這段瘋狂的旅程。我希望你們能保持聯系。
回顧 10 月 -11 月份
OpenAI 兩位安全相關人員離職
Miles Brundage 在 2018 年加入 OpenAI,曾擔任研究科學家、政策研究負責人以及高級 AGI 顧問等重要職務,今年 10 月底離開 OpenAI。
Miles Brundage 在 OpenAI 的工作主要集中在确保 OpenAI 的産品能以安全、可靠的方式進行部署使用。
他領導了外部紅隊計劃 Red teaming,測試 OpenAI AI 系統的安全性和魯棒性,并推動了 " 系統卡 " 報告的創建。
還積極參與了有關 AI 進展評估、AI 安全監管、AI 經濟影響以及有益 AI 應用加速推進等方面的研究,并提出了 "AI 大戰略 " 概念。
他離開 OpenAI 時表示在非營利部門作爲研究人員和倡導者将會産生更大的影響,他将擁有更多的自由發表能力。
Miles Brundage 離職後曾發長文表示對于" 世界有效管理人工智能、AGI 能力的就緒狀态(包括監管 OpenAI 和其他公司)" 尤爲重要,并且希望在此領域發揮自己更大作用。
Lilian Weng,11 月 15 日離開 OpenAI,曾擔任 OpenAI 的安全研究副總裁及後來的安全系統團隊負責人。
在 OpenAI 工作的 7 年的時間裏,LilianWeng 負責建立和領導安全系統團隊,專注于解決人工智能安全的關鍵問題,包括防止現有 AI 模型被不當利用等挑戰。
她的離職被行業觀察者視爲對 OpenAI 未來安全戰略的一個潛在考驗。
她曾提到,在 GPT-4 發布之後,她被指派了重新評估 OpenAI 安全系統的任務,但她選擇離職,以便有更多的時間撰寫技術博客,并可能在公司外部更有效地推進 AI 安全與倫理的研究工作。
她的這一決定也引發了業界對 OpenAI 内部戰略方向和安全文化建設的廣泛讨論。
而就在昨天(美東時間周五),與 OpenAI 法律訴訟糾葛不斷的馬斯克,也再一次提出了新要求。
馬斯克及其人工智能公司 xAI 的法律團隊向美國聯邦法院再次提交申請,請求法院發布初步禁令,以阻止 OpenAI 從一個非營利組織轉變爲完全以盈利爲目的的企業。
此外,他們還要求法院禁止 OpenAI 限制其投資者向包括 xAI 在内的競争對手提供資金支持
不難看出,似乎從業者們,對人工智能的安全擔憂叢叢,對商業與技術的難以平衡感到不安。
安全和有益的通用人工智能(AGI)?
所有的人工智能相關組織、企業、公司都在談 AGI。
" 會從用戶價值出發 …… 會推動 AGI…… 以普惠爲使命 …… 以人類進步,科技發展爲願景 ……"
所以,到底有多少企業除了技術追求之外,真正在直面問題:保障安全和有益的通用人工智能(AGI)發展 " 呢?
我們簡單來解釋一下爲什麽需要直面并堅持安全和有益的通用人工智能(AGI)。
首先,技術失控問題,AGI 可能擁有超出人類控制的能力,将導緻不可預測的風險和後果。
第二人工智能的發展需要考慮倫理和道德問題,比如決策的透明度、偏見和歧視問題,以及對隐私的影響。
第三責任問題,人工智能系統的複雜性增加,到那時候再來确定誰對人工智能的行爲和決策負責變得更加困難。
第四經濟和社會影響,人工智能可能會對就業市場、社會結構和經濟産生深遠影響,包括職業的自動化和收入不平等的加劇。
第五政策和法規問題,需要制定和實施有效的政策和法規來管理人工智能的發展,以确保其對社會的積極影響。
第六人類福祉和可持續發展,核心目标一定是确保人工智能的發展能夠提高人類的福祉,而不是僅僅追求技術進步。
第七 ……
OpenAI 離職的人員越來越多,抛出的人工智能安全警示也越來越多。
作爲在科技發展中扮演重要角色的企業,特别是在人工智能這樣的前沿領域,每一步的發展都需要格外謹慎。
最初的願景是否還在?
科技的發展與給你所處世界帶來的風險要如何平衡?
值得每一個人深思。