IT 之家 3 月 5 日消息,兩位開創性科學家安德魯・巴托(Andrew Barto)和理查德・薩頓(Richard Sutton)因其在人工智能訓練技術領域的卓越貢獻,今天榮獲了 2024 年圖靈獎。然而他們在領獎之際,卻對當前人工智能開發中的安全隐患表達了深切擔憂。

巴托是馬薩諸塞大學的研究員,而薩頓曾是 DeepMind 的研究科學家。他們指出,許多人工智能公司在産品尚未經過充分測試的情況下便急于推向市場,這種做法無異于 " 建造一座橋,然後通過讓行人使用來測試其安全性 "。

圖靈獎被譽爲 " 計算機界的諾貝爾獎 ",獎金高達 100 萬美元(IT 之家備注:當前約 726 萬元人民币),此次巴托和薩頓憑借開發 " 強化學習 " 技術而共同獲獎。強化學習是一種通過試錯訓練人工智能系統做出優化決策的機器學習方法。谷歌高級副總裁傑夫・迪恩(Jeff Dean)稱這一技術是 " 人工智能進步的關鍵 ",并且一直是推動人工智能發展的 " 核心支柱 ",包括 OpenAI 的 ChatGPT 和谷歌的 AlphaGo 等突破性模型都受益于此。
巴托在接受《金融時報》采訪時表示:" 在沒有安全措施的情況下向數百萬用戶發布軟件,這并不是良好的工程實踐。工程實踐的演進本應是爲了減輕技術可能帶來的負面影響,但我并未看到開發人工智能的公司遵循這一原則。"
人工智能開發的安全性問題早已引起廣泛關注。被稱爲 " 人工智能教父 " 的約書亞・本吉奧(Yoshua Bengio)和傑弗裏・辛頓(Geoffrey Hinton)也曾對這一問題提出批評,他們同樣是圖靈獎的獲得者。
巴托批評人工智能公司過于 " 受商業利益驅動 ",而忽視了人工智能研究的深入發展。