OpenAI 的強大性能不僅讓全球 " 打工人 " 都感到緊張,業界大佬們也感到步子邁得太快了,需要暫停一下,評估其中的風險。
北京時間 3 月 29 日,由圖靈獎得主、深度學習三巨頭之一約書亞 · 本吉奧(Yoshua Bengio),埃隆 · 馬斯克,《人類簡史》作者尤瓦爾 · 赫拉利等人聯名發表公開信,呼籲所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統,爲期至少 6 個月,以确保人類能夠有效管理其風險。暫停工作應該是公開且可以證實的,如果 AI 實驗室不能快速暫停,各國政府應該實行暫停令。
截至發稿,這份公開信已經征集到 1128 份簽名。
OpenAI 創始人:
AI 需要政府與社會的共同監管
公開信指出,AI 現在已經能和人類競争,将給人類社會帶來深刻的變革。在這個關鍵時刻,我們必須思考 AI 的潛在風險:假新聞和宣傳充斥信息渠道、大量工作被自動化取代、人工智能甚至有一天會比人類更聰明、更強大,讓我們失去對人類文明的掌控。這些問題不應該交給 " 未經民選的科技領袖 " 來決定。
然而,各大 AI 實驗室爲了開發和應用更加強大的人工智能,最近幾個月已經陷入了 " 失控 " 的競賽,甚至連 AI 系統的創始人也并不能完全理解、預測和有效控制其風險,相應的計劃和管理工作沒有跟上。
實際上,面對 OpenAI 産品在全球的火爆程度,OpenAI 創始人兼 CEO 山姆 · 阿爾特曼自己也感到有些害怕。他近日在接受媒體采訪時表示,自己對 AI 如何影響勞動力市場、選舉和虛假信息的傳播有些 " 害怕 "。AI 需要政府和社會共同參與監管,用戶反饋和規則制定對抑制 AI 的負面影響非常重要。
記者注意到,在簽名名單裏的尾部,赫然出現了阿爾特曼的名字。然而,由于簽名是公開征集,尚無法證明是否是阿爾特曼本人簽署,其本人亦未回應。簽名中 OpenAI 最後一個字母爲小寫,或有故意之嫌疑。
圖片來源:futureoflife.org
簽署人之一、紐約大學
著名 AI 研究者 Gary Marcus
也在推特上發問:" 是你嗎,山姆?"
千餘名大佬聯名 " 發聲 "
第一批簽名人裏面可謂大佬雲集。
約書亞 · 本吉奧因對深度學習的貢獻,在 2018 年與 " 深度學習之父 " 傑弗裏 · 辛頓 ( Geoffrey Hinton ) 、Facebook 首席科學家楊力昆(Yann LeCun)一起獲得了圖靈獎。三人被稱爲 "AI 教父 "。
後兩人雖然沒有參與公開信的簽名,但最近對 OpenAI 以及 AI 領域的快速發展都表示了擔憂或批評。辛頓在近日接受哥倫比亞廣播公司采訪時表示,AI 消滅人類 " 并非不可想象 ",人類需要警惕 AI 會給一小部分公司和政府帶來巨大的權力。作爲 Facebook 的 AI 領頭人,楊力昆則一直對 OpenAI 的大語言模型路徑不屑一顧,認爲其科技并無特别創新之處。
馬斯克作爲 OpenAI 的共同創始人之一,一直也毫不掩蓋他對 OpenAI 的敵意,認爲其過商業化,從開源變成了 " 閉源 ",已經忘了非盈利和開放的 " 初心 "。但最近也有新聞指出,馬斯克之所以如此敵視 OpenAI,是因爲 2018 年争奪 OpenAI 經營權失敗,所以撤資走人。
此外,簽名人還包括蘋果聯合創始人史蒂夫 · 沃茲尼亞克、2020 年美國總統選舉民主黨初選候選人楊安澤、AI 經典教科書《人工智能 : 一種現代方法》作者 Stuart Russell、AI 領軍公司 DeepMind 的一衆研究人員等。
公開信原文
正如廣泛的研究和頂級人工智能實驗室所承認的,人工智能系統對社會和人類構成較大的風險。《阿西洛馬人工智能原則》中指出,高級人工智能可能代表着地球上生命曆史的深刻變革,應該以相應的謹慎和資源進行規劃和管理。然而,盡管最近幾個月人工智能實驗室掀起 AI 狂潮,開發和部署越來越強大的數字大腦,但目前沒有人能理解、預測或可靠地控制 AI 系統,也沒有相應水平的規劃和管理。
現在,人工智能在一般任務上變得與人類一樣有競争力,我們必須問自己:我們應該讓機器在信息渠道中宣傳不真實的信息嗎?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰并取代人類?我們是否應該冒着失去對我們文明控制的風險?這樣的決定絕不能委托給未經選舉的技術領袖。隻有當我們确信強大的人工智能系統的效果是積極的,其風險是可控的,才應該開發。同時,這種信心必須得到驗證,并随着系統的潛在影響的大小而加強。OpenAI 最近關于人工智能的聲明中指出,在開始訓練未來的系統之前,可能必須得到獨立的審查,對于最先進的努力,同意限制用于創建新模型的計算增長速度。我們同意,現在就該采取行動。
因此,我們呼籲所有人工智能實驗室立即暫停比 GPT-4 更強大的人工智能系統的訓練,時間至少持續 6 個月。這種暫停應該是公開的、可核查的,并包括所有關鍵參與者。如果這種禁令不能迅速實施,政府應該介入并制定暫停令。
人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。這些協議應該确保遵守協議的系統是安全的。值得一提的是,這并不意味着暫停一般的人工智能開發,隻是從危險的競賽中退後一步,限制不可預測的研究和開發。
人工智能的研究和開發應該重新聚焦于,使目前最先進和強大的系統更加準确、安全、可解釋、透明、穩健、一緻、值得信賴和忠誠。
同時,人工智能開發者必須與政策制定者合作,大幅加快開發強大的人工智能治理系統。這些至少應該包括:專門針對人工智能的監管機構;監督和跟蹤高能力的人工智能系統和大型計算能力的硬件;出處和水印系統幫助區分真實和合成,并跟蹤模型洩漏;強大的審查和認證生态系統;對人工智能造成的傷害承擔責任;爲人工智能安全技術研究提供強大的公共資金以及資源充足的機構,以應對人工智能可能導緻的巨大的經濟和政治破壞。
人類可以通過人工智能享受繁榮的未來。現在,我們成功地創建了強大的人工智能系統,可以在這個 " 人工智能之夏 " 中獲得回報,爲所有人的明确利益設計這些系統,并給社會一個适應的機會。停止使用其他技術可能會對社會造成災難性影響,因此我們必須保持準備狀态。讓我們享受一個漫長的人工智能夏天,而不是匆忙進入秋天(fall,亦可指墜落 ) 。
來源:每日經濟新聞、21 财經、紅星新聞