《科創闆日報》2 月 1 日訊(編輯 鄭遠方)ChatGPT 開放注冊兩個月後,如今已成為 AI 圈 " 頂流 ",不僅獲微軟大手筆 " 帶貨 ",在美股和 A 股市場上,更是出現上市公司 " 沾 ChatGPT 即漲 "。
然而,随着技術門檻的降低和可及性的提升,技術濫用的問題也引起了人們的警惕。當地時間周二,ChatGPT 背後的公司 OpenAI 推出了一款新檢測器 AI Text Classifier,可幫助辨别文本是由人工撰寫還是 AI 生成。
實際上,近期随着 ChatGPT 蹿紅,這一聊天機器人生成的内容已然滲透至美國議員國會講稿與學術研究,更直接登上了學術論文作者欄。
美國衆議員傑克 • 奧金克洛斯近日在衆議院宣讀兩段講稿,稿件由 ChatGPT 生成。他的工作人員表示,這是首次由 AI 捉刀代筆的講稿在美國國會被宣讀。
而在去年 12 月發布的一篇雷帕黴素抗衰老應用的論文中,ChatGPT 就曾被列為一作,引發業内争議。
而在學生群體中,使用 ChatGPT 幫助撰寫論文、生成代碼、完成作業等情況更為普遍。
在線課程供應商 Study.com 一項針對 1000 名美國大學生的調查顯示,超過 89% 學生使用 ChatGPT 完成家庭作業;48% 用 ChatGPT 完成小測,53% 用 ChatGPT 寫論文。
另外,北密歇根大學的一位學生還依靠 ChatGPT,寫出全班最高分論文。更有意思的是," 露餡 " 原因在于,導師發現該學生提交的論文" 邏輯過于連貫、結構過于合理 "。
據了解,AI Text Classifier 檢測器包含一個文本框,用戶可輸入至少 1000 個字符長(約 150 - 250 個單詞)的文本。點擊提交後,AI Text Classifier 也會給出不同程度的判定答案,包括 " 非常不可能 "、" 不太可能 "、" 難以判斷 "、" 疑似 " 由 AI 生成。
不過,這一工具也存在局限,Open AI 表示,結果并不能保證完全準确,工具仍然在研發優化中,使用過程中可能會出錯。數據顯示,該檢測器在針對英文文本的訓練評估中,成功将 26% 的 AI 生成文本判定為 " 疑似 AI 生成 ",但将卻有 9% 的案例中,将人工撰寫腳本标記為 AI 生成。
另外,檢測器主要針對成人書寫的英語内容進行訓練,有可能會錯判兒童寫的文本和非英語文本。而用戶還可以簡單編輯 AI 生成的文本,以避開檢測。
但實測發現,即便全文照搬一篇 ChatGPT 關于 " 如何識别 AI 生成文本 " 的回答,這一檢測器給出的答案也僅僅是 " 難以判斷是否由 AI 生成 "。
另外,若将莎士比亞《麥克白》戲劇第二幕第一場貼進文本框,則結果同樣為 " 難以判斷是否由 AI 生成 "。
(《麥克白》原文來源:shakespeare.mit.edu/)
ChatGPT 并非無所不能 走捷徑也有風險
根據《自然(Nature)》此前的一篇文章,ChatGPT 發布後,伊利諾伊州西北大學一個研究小組便展開研究,若使用 ChatGPT 生成醫學論文摘要,是否能識别。而結果顯示,這些由 AI 操刀的摘要全部通過抄襲檢測器;在人工審核環節,僅 32% 的摘要被判斷為 " 由真實人類完成 "。
除了冒用 / 抄襲風險,ChatGPT 等 AI 生成的文本難以保證正确性,進一步還可能影響論文研究結論。以 ChatGPT 來說,Nature 團隊及多家出版商均認為,其無法對學術論文的完整性與内容本身負責。
同時,新聞媒體領域的一個案例或許也可以作為佐證。自去年 11 月以來,科技媒體 CNET 發布了 70 餘篇由 AI 生成的文章。但 Futurism 報告顯示,這些文章中其實暗藏着多處錯誤,包括數據測算不準确、名詞解釋混淆等。
麻省理工 Tech Review 曾發布一篇文章,目的在于研究微軟如何将 ChatGPT 用于必應搜索引擎。該文指出,像 ChatGPT 這樣的模型,很擅長生成華美的語言,讀起來仿佛由人類撰寫。但它們對自己生成的東西缺乏真正理解,在闡釋正确事實與假話時,抱有同樣的自信。
從 ChatGPT 的走紅也能看出,AI 技術的使用和觸達門檻也不再遙不可及。但積極擁抱 AI 的同時,人類也在提防着 AI。
以積極為 ChatGPT" 帶貨 " 的微軟和亞馬遜為例,兩家巨頭允許員工使用 ChatGPT,但也禁止員工向 ChatGPT 分享敏感數據,以防後者的輸出包含或出現類似公司機密信息。
而 AIGC 的另一代表性應用 "AI 換臉 " 也存在諸多法律風險,相關詐騙案、侵權糾紛并不鮮見。
誠然,AI 技術對人類社會影響深遠,但 " 技術中立 " 并不能成為規避責任與義務的理由。不僅技術服務提供方需要規範,使用者也需對自身有所約束。