在科技巨頭為了 ChatGPT 大打出手的另一邊,學術圈對于 ChatGPT 的關注也在升高。
一周時間内,Nature連發兩篇文章探讨 ChatGPT 及生成式 AI。
畢竟 ChatGPT 最早還是在學術圈内掀起風浪,先後有學者拿它寫論文摘要、改論文。
Nature 為此專門頒布禁令:ChatGPT 不能當論文作者。Science 則直接禁止投稿使用 ChatGPT 生成文本。
但趨勢已擺在眼前。
現在更應該做的,或許是明确 ChatGPT 對于科學界的意義以及應當處于怎樣的身位。
正如 Nature 所言:
生成式 AI 及背後的技術發展如此之快,每個月都有創新出現。研究人員如何使用它們,将決定着技術和學界的未來。
ChatGPT 改變學術圈規則
在《ChatGPT:五大優先研究問題》一文中,研究人員提出:
無法阻止 ChatGPT 殺入學術圈,當務之急應該是研究探讨它會帶來哪些潛在影響。
如果後續 ChatGPT 被拿來設計實驗、進行同行審議、輔助出版、幫編輯決定是否要接收文章……這些應用應該注意哪些問題?現在人類需要明确哪些邊界?
研究人員認為,有 5 個方面需要優先考慮,并解釋了原因。
堅持人類審查
ChatGPT 等對話式 AI 的一大特點,就是回答内容的準确性無法保證。而且編出來的瞎話都還很自然,容易對人産生誤導。
比如,研究人員讓 ChatGPT 對一篇關于認知行為療法(CBT)治療焦慮等症狀是否有效的論文,并進行總結概述。
ChatGPT 給出的回答中,存在很多事實性錯誤。如它說這項評估是基于46 項研究,但實際上是69 項,而且誇大了 CBT 的有效性。
研究人員認為如果有學者使用了 ChatGPT 幫忙做研究,很可能被錯誤信息誤導。甚至會導緻學者在不知情的情況下,剽竊他人成果。
因此,研究人員認為在評審論文過程中,人類不能過度依賴于自動化系統,最終還是要由人類自己為科學實踐負責。
制定問責規則
為了應對生成式 AI 的濫用,很多鑒别 AI 文本工具陸續誕生,它們能很好分辨出一段文字是不是人類自己寫的。
不過,研究人員認為這種 " 軍備賽 " 大可不必,真正要做的是讓學術圈、出版商能更加公開透明地使用 AI 工具。
論文作者應該明确标注哪些工作是 AI 承擔的,期刊如果使用 AI 審稿,也應該公開說明。
尤其是目前生成式 AI 已經引發了關于專利問題的讨論,AI 生成的圖像版權究竟該怎麼算?
那麼對于 AI 生成的問題,著作權應該屬于為 AI 提供訓練數據的人?AI 背後的制作公司?還是用 AI 寫文章的學者?作者身份的問題,也需要嚴謹定義。
投資真正開放的 LLM
目前,幾乎所有先進的對話式 AI,都是科技巨頭們帶來的。
關于 AI 工具背後算法的工作原理,很多都還不得而知。
這也引發了社會各界的擔憂,因為巨頭們的壟斷行為,嚴重違背了科學界開放的原則。
這将會影響學術圈探尋對話式 AI 的缺點和底層原理,進一步影響科技的進步。
為了克服這種不透明性,研究人員認為當下應該優先考慮開源 AI 算法的開發和應用。比如開源大模型 BLOOM,就是由 1000 位科學家聯合發起的,性能方面可以匹敵 GPT-3。
擁抱 AI 的優點
雖然有很多方面需要設限,但不可否認,AI 确實能提升學術圈的效率。
比如一些審查工作,AI 可以快速搞定,而學者們就能更加專注于實驗本身了,成果也能更快發表,從而推動整個學術圈的腳步走得更快。
甚至在一些創造性工作上,研究人員認為 AI 也能有用武之地。
1991 年的一篇開創性論文提出,人和 AI 之間形成的 " 智能夥伴關系 ",可以勝過單獨人類的智力和能力。
這種關系能夠将創新加速到無法想象的水平。但問題是,這種自動化能走多遠?應該走多遠?
因此,研究人員也呼籲,包括倫理學家在内的學者,必須就當今 AI 在知識内容生成方面的界限展開讨論,人類的創造力和原創性可能仍舊是進行創新研究必不可缺的因素。
展開大辯論
鑒于當下 LLM 帶來的影響,研究人員認為學界應該緊急組織一次大辯論。
他們呼籲,每個研究小組都應該立即開組會,讨論并親自試試 ChatGPT。大學老師應該主動和學生讨論 ChatGPT 的使用和倫理問題。
在早期規則還沒有明确的階段,對于研究小組負責人來說,重要的是如何号召大家更公開透明地使用 ChatGPT,并開始形成一些規則。以及應該提醒所有研究人員,要對自己的工作負責,無論它是否由 ChatGPT 生成。
更進一步,研究人員認為要立即舉辦一個國際論壇,讨論 LLM 的研究和使用問題。
成員應該包括各個領域的科學家、科技公司、研究機構投資方、科學院、出版商、非政府組織以及法律和隐私方面的專家。
Nature:ChatGPT 和 AIGC 對科學意味着什麼
興奮又擔憂,大概是許多研究人員對于 ChatGPT 的感受。
發展到現在,ChatGPT 已經成為了許多學者的數字助手。
計算生物學家 Casey Greene 等人,用 ChatGPT 來修改論文。5 分鐘,AI 就能審查完一份手稿,甚至連參考文獻部分的問題也能發現。
來自冰島的學者 Hafsteinn Einarsson,幾乎每天都在用 ChatGPT 來幫他做 PPT、檢查學生作業。
還有神經生物學家 Almira Osmanovic Thunstr ö m 覺得,語言大模型可以被用來幫學者們寫經費申請,科學家們能節省更多時間出來。
不過,Nature 對 ChatGPT 輸出内容做出了精辟總結:
流暢但不準确。
要知道,ChatGPT 的一大缺點,就是它生成的内容不一定是真實準确的,這會影響它在學術圈的使用效果。
能解決嗎?
從現在來看,答案有點撲朔迷離。
OpenAI 的競争對手 Anthroic 号稱解決了 ChatGPT 的一些問題,不過他們沒有接受 Nature 的采訪。
Meta 發布過一個名為 Galactica 的語言大模型,它由 4800 萬篇學術論文、著作煉成,号稱擅長生成學術方面内容,更懂研究問題。不過現在它的 demo 已經不開放了(代碼還能用),因為用戶在使用過程中發現它帶有種族歧視。
即便是已經被調教 " 乖巧 " 的 ChatGPT,也可能會在刻意引導下輸出危險言論。
OpenAI 讓 ChatGPT 變乖的方法也很簡單粗暴,就是去找非常多的人工給語料标注,有聲音認為這種雇人看有毒語料的行為,也是一種剝削。
但無論如何,ChatGPT 及生成式 AI,開啟了人類新的一扇想象之門。
醫學學者埃裡克 · 托普 ( Eric Topol ) 表示,他希望未來能有包含 LLM 的人工智能,可以交叉檢查學術文獻中的文本和圖像,從而幫助人類診斷癌症、理解疾病。當然這一切要有專家做監督。
他說,真沒想到我們在 2023 年年初,就看到了這樣的趨勢。
而這才隻是開始。
參考鍊接:
[ 1 ] https://www.nature.com/articles/d41586-023-00340-6
[ 2 ] https://www.nature.com/articles/d41586-023-00288-7