當今最熱的科技話題非 AI 莫屬。但是,并非所有人都對此滿懷期待。
據媒體的最新曝光,兩名前谷歌員工表達了他們對公司發布新的 AI 聊天機器人的擔憂。
今年 3 月,兩名負責審查 AI 産品的谷歌員工試圖阻止該公司推出自己的 AI 聊天機器人,他們認爲該技術會産生 " 不準确和危險的陳述 "。
幾個月前,微軟的倫理學家也提出了類似的擔憂。他們認爲,這種 AI 聊天機器人将令用戶批判性思維的退化,同時可能會充斥虛假信息和侵蝕 " 現代社會的事實基礎 "。
盡管如此,微軟依然在 2 月發布了其集成在 Bing 搜索引擎的聊天機器人;一個月後,谷歌在 3 月底發布了其 Bard 聊天機器人。
有媒體分析稱,這些通常在規避風險方面十分謹慎的大公司之所以在 AI 領域不管不顧地采取激進的舉措,是爲了在下一場可能的科技競賽中占得先機。
根據多名員工及内部文件的闡述,ChatGPT 的驚人成功導緻微軟和谷歌願意承擔更大的風險。微軟技術主管 Sam Schillace 上個月發送的一封内部電子郵件稱,第一個推出相關産品的公司将是長期赢家,有時候兩家公司的差距僅僅以周爲單位。
自發布以來,圍繞這些 AI 機器人的倫理争議就持續不斷。包括馬斯克在内的 1000 多名技術領域的研究人員和意見領袖不久前發布一封公開信表達了對 AI 帶給社會影響的擔憂,他們呼籲放慢相關技術的發展步伐。
監管機構已經準備對 AI 技術進行幹預。歐盟提議立法監管人工智能,意大利上周暫時禁止 ChatGPT。在美國,白宮和國會也在尋求對 AI 更強有力的監管。
更令外界擔憂的是,上個月底,微軟、Meta、谷歌、亞馬遜和推特等公司都裁減了 " 負責任的人工智能團隊 " 成員,這些團隊主要爲使用人工智能的消費産品的安全性提供建議。
業内專家對此表示,各大科技公司裁減相關人員的決定令人擔憂,因爲随着越來越多的人開始試用新的人工智能工具,人們發現了這項技術可能被濫用。在 OpenAI 推出 ChatGPT 并取得成功後,人們的這種擔憂進一步加劇。
谷歌旗下人工智能研究公司 DeepMind 的前倫理和政策研究員、研究機構 Ada Lovelace Institute 副主任 Andrew Strait 稱:
令人震驚的是,現在可以說是比以往任何時候都需要更多這類團隊的時候,但這些團隊的成員被解雇了。
今年 1 月,微軟解散了其 " 道德和社會 " 團隊,該團隊領導了微軟在相關領域的早期工作。微軟表示,裁員人數不到 10 人,公司負責人工智能的辦公室仍有數百人在工作。
微軟人工智能業務主管 Natasha Crampton 稱:
我們已經顯著增加了‘負責任的人工智能’努力,并努力在整個公司範圍内将其制度化。