作者 | 黃金瓊
編輯 | 鄧詠儀
常言道," 一物降一物 ",但對現在的生成式 AI 來說,事情也許很難如此。
據 TechCrunch,OpenAI 于 7 月 20 日悄悄下架了其 AI 檢測器,但因爲過于低調,不少人還沒有發現。
OpenAI 的通知顯示,下架是因爲檢測的準确率過低。OpenAI 團隊 " 會繼續研究更有效的文本技術 ",希望未來能夠對 AI 生成的音頻、視頻内容進行檢測。
ChatGPT 爆火以來,AI 生成文本在各行各業得到了更廣泛的應用。但比起廣泛應用,AI 生成内容引發了人們更大的擔憂—— AI 或許會成爲更大的假新聞源頭、洩露人們數據和隐私。
AI 生成内容引發的現實問題也不絕于耳——典型案例是是在大學裏,學生們用 ChatGPT 生成論文,已經擾亂了學校的教學秩序,不少學校已經明令禁止在學術場景下使用 ChatGPT。
面對洶湧的輿論,OpenAI 在今年 2 月就迅速推出應對方案,也就是這款 AI 文本檢測器。
AI 文本檢測器的主要功能,是用來判斷文本是否由人工智能生成。此前,在檢測過程中,用戶無需付費,隻要将所檢測的文本複制到檢測器上,就可以檢查到内容是否爲 AI 生成。OpenAI 也沒有限定可以檢測的文本限定類型,用戶可以檢測包括郵件、文章以及論文在内的文件。
然而直到下架,這款産品壽命隻有短短半年。
AI 文本檢測器其實一開始就并不完美。據 OpenAI 公布的數據,AI 檢測器在識别 AI 生成文本方面的正确率爲 26%,同時将人類所寫的内容識别爲 AI 生成的錯誤率爲 9%。
在發布檢測器時,OpenAI 就表明 "AI 文本檢測器并不完全可靠 "。同時,OpenAI 團隊也承認,檢測器很容易将人類寫的文本識别爲 AI 寫的,AI 生成的文本性内容如果經過人類編輯,AI 也無法進行準确地識别。
OpenAI 已經大模型應用中的技術領頭羊。如今 AI 檢測器的下架,某種程度上也意味着,人們現在可能還沒有更好的方式監管 AI。" 用 AI 監管 AI" 的路子,可能還不太能走通。
近期的一則斯坦福研究,也得出了同樣的結論。
數位斯坦福的專家教授對目前主流的七款 AI 文本檢測器進行了測試,研究結果顯示,一些檢測器生成的 99% 的準确率具有 " 誤導性 "。非英語母語的人寫的文章,常被錯誤地标識爲由 AI 生成,這會嚴重影響母語非英語的使用者如學生、學者以及求職者,也會很容易增加他們被歧視的可能性。