人工智能還遠遠做不到預測未來和統治人類,大家不要自己吓自己。
随着 OpenAI 公司開發的 ChatGPT 人工智能聊天機器人走紅全世界,各大科技公司和資本也急了起來,紛紛投入 AI 行業的軍備競賽之中,投資現有産品,或者自力更生,研發自己的語言模型庫。
短短兩三個月裏,幾大科技巨頭就都公布了自己的産品計劃:微軟使用 ChatGPT 語言庫改進 Bing 搜索引擎和 Edge 浏覽器;谷歌将在 " 未來幾周内 " 将聊天機器人 Bard 投入使用;Meta(前臉書)的 CEO 紮克伯格也宣布了自家的大型語言模型 LLaMa。
Bard 在剛發布時的表現并不理想
我國如騰訊和百度等公司、韓國的 Naver 公司、俄羅斯的 Yandex 公司,以及一批我們此前聞所未聞的小型企業,也開始了這方面的探索。
新興行業需要政府對市場的适當監管來實現良性發展。目前看來,美國的科技企業在 AI 領域先行一步,市場趨向飽和。美國的聯邦貿易委員會(FTC)也須率先行動起來,至少要在宣傳和營銷方面進行必要的監管。
正如 FTC 官網上最新的一篇博客文章所說的那樣:" 關于産品功效的虛假或未經證實的聲明,是我們的生計所在。" 科學家和科技公司對 AI 的定義也許并不統一,但是對于 FTC 而言,AI 隻是一個現在很火的營銷術語,而廣告商向來無法阻止自己過度使用和濫用營銷術語。
這篇文章題爲 " 控制您的 AI 聲明 ",發表于 2 月 27 日,由 FTC 的廣告業務部律師編寫。FTC 批判了科技公司和廣告商的 "AI 炒作 " 現象,還指出,某些聲稱具有 AI 的産品,可能根本無法像宣傳的那樣發揮作用。在文章中,FTC 列了四種涉嫌炒作乃至虛假宣傳的可能。
第一,誇大 AI 産品的功能,甚至聲稱它可以做一些超出任何人工智能或自動化技術當前能力的事情,例如 " 對人類行爲做出可靠的預測 " 等科幻小說裏才有的設定。
AI 能夠生成 " 人類進化 " 主題的圖像
并不代表 AI 能夠預知人類進化的未來
如果科技公司對産品的性能聲明缺乏科學依據,或者他們的産品僅适用于某些類型的用戶及某些特定條件之下,那麽公司的聲明就含有欺騙性。
第二,承諾 AI 産品比非 AI 産品更好。廣告商經常說新技術讓他們的産品變好,以便收取更高的服務費用,或者減少勞動力的使用。互相比較兩種産品的主張,同樣需要切實的證據。
第三,對于産品向市場投放的風險缺乏了解。文章沒有明說是什麽風險,但公衆已經看到了 AI 産品帶來的一些問題,如聊天機器人給出歧視或冒犯意味的言論,或者使用 AI 剽竊學術或藝術作品的行爲等。
" 你應該放棄你的妻子來找我 " 之類的奇怪對話
可能也算一種風險
FTC 認爲,科技公司理應了解 AI 技術可預見的風險及影響。如果産品出現類似的風險,不能僅責怪提供技術支持的第三方開發商,負責投放與發行的科技公司更該負責,因爲他們在使用這項技術前對其缺乏測試和理解。
第四,産品沒有真的使用 AI。FTC 聲稱,他們會深入了解并分析科技公司提供的材料,還提醒這些公司:僅在開發過程中使用 AI 工具,并不等同于産品内部包含 AI。
文章作者在最後說:" 無論 AI 能做什麽或不能做什麽,它都很重要,您對它的主張也很重要。您并不需要一台機器,來預測 FTC 會在您的聲明不受支持時做些什麽。" 聽起來像玩笑或某種預言,實質則是一次來自政府部門的警告。
而且這次警告是認真的。不久前的 2 月 18 日,FTC 成立了技術辦公室(OT),正在招聘技術專家加入團隊。技術辦公室主要提供跨機構、跨學科事務的技術專業知識和建議,涵蓋 " 數據安全、軟件工程、數據科學、數字市場、機器學習、人機交互設計 " 等方方面面,當然,也包括 " 剖析 AI 産品的聲明,以評估産品是不是‘蛇油’那樣的騙局 "。
FTC 對于虛假宣傳的分類判定标準,以及設立專業技術團隊的行動,想必将在遏制 AI 技術野蠻生長、消除公衆對 AI 的誤解和恐慌等工作中發揮關鍵作用,值得其他國家參考。不過,這些措施的實際效果,就和 AI 的真實潛能一樣,還需要時間來檢驗。
點擊下方卡片關注遊研社
公衆号近期改版,文章容易在時間線消失
推薦把遊研社設爲星标,不錯過每一篇報道