全球學術圈險被 ChatGPT 論文攻陷!知名出版商緊急撤稿,AI 插圖笑翻網友
【導讀】近日,愛思唯爾上的幾篇論文被發現開篇就暴露了「ChatGPT 風格」,插圖也是用 Midjourney 畫的。學術圈被 AI 滲透已經不是一天兩天了,搞科研的用 AI 寫論文,學生用 AI 寫作業,老師也用 AI 批作業,整個過程都沒有真人了。
學術圈,已經抵禦不住 LLM 的入侵了!
最近,世界知名出版集團愛思唯爾旗下的幾篇論文接連被質疑。
比如下面這篇锂電池的論文,在「介紹」部分的第一句,就暴露了可疑的痕迹——
「當然可以,這裏是您的主題可能需要的介紹」。
一開口就是老 ChatGPT 了。
奇怪的是,明明這句話就在第一句,這麽顯眼的錯誤,共同作者、主編、審稿人、排版人員,竟然一個都沒有注意到??
如果真的是經過了嚴格的同行評審,會發生這種情況嗎?
同樣情況的例子不勝枚舉。
比如這篇講肝損傷的論文,在總結時忽然有一大段亮了——
「總之,非常抱歉,由于我是人工智能語言模型,我無法獲得實時信息或患者的具體數據 ……」
「我可以提供有關損傷一般信息,但是對于的具體病例,建議你去咨詢一下專業醫務人員 ……」
這一篇講太陽能光伏電池闆能量轉換效率的論文,在某段落之後赫然出現一句 ChatGPT 界面中經常出現的話——「Regenerate response」。
網友們笑翻了,議論的聲音越來越大,現在已經逼得愛思唯爾官方下場,澄清政策并沒有規定,在寫論文過程中不得使用 LLM,隻要提前聲明就可以。
并且表示,官方目前正在調查被質疑的論文。
而紐約大學學者馬庫斯評論道,AI 的泛濫對于期刊出版商來說,是一個重大的預警,因爲他們最重要的就是聲譽。
現在,GenAI 生産的垃圾已經迅速淹沒了論文的審查過程,導緻出版方的聲譽急劇下降。
科學界的每個人都輸了,除了 ChatGPT。
寫論文的确可以使用 LLM
在愛思唯爾的官方規定中,的确允許作者在寫論文時使用 AI。
當然,也有一定的原則,那就是 AI 的作用是提高作品的可讀性和語言性,但不能取代關鍵的寫作任務,比如給出科學結論、提供臨床建議。
另外,如果是使用了 AI,作者就必須聲明這一點。
https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier
如果作者在寫作過程中使用人工智能和人工智能輔助技術,這些技術隻能用于提高作品的可讀性和語言性,而不能取代關鍵的寫作任務,例如産生科學、教學或醫學見解、得出科學結論或提供臨床建議。應用該技術應該在人類的監督和控制下完成,所有工作都應仔細審查和編輯,因爲人工智能可以産生聽起來權威的輸出,這些輸出可能是不正确的、不完整的或有偏見的。作者對作品内容負有最終責任和義務。
作者應在其手稿中披露人工智能和人工智能輔助技術的使用,并在已發表的作品中出現聲明。聲明使用這些技術有助于作者、讀者、審稿人、編輯和貢獻者之間的透明度和信任,并有助于遵守相關工具或技術的使用條款。
其實,這個消息不是什麽新鮮事了,用 ChatGPT 等 LLM 工具寫論文的作者,可謂多如牛毛。
去年,大家都被這篇新聞刷屏了——
美國田納西大學健康科學中心的一名放射科醫生用 ChatGPT 狂寫論文,4 個月直接肝出 16 篇,其中 5 篇甚至已經發表了!
而 ChatGPT 早在 2022 年底,已經大搖大擺地出現在了共同作者欄中,毫不避諱自己的貢獻。
網友:作者自己讀過文章嗎?
對于這件事情,網友表示:
愛思唯爾的「Surfaces and Interfaces」沒有同行評審流程,也沒有編輯流程。它隻是一個昂貴的預印本存儲庫,光收錢,不幹活。
甚至,網友懷疑就連作者自己,都沒讀過這些文章 ……
既然作者和審稿人都不幹活,那不妨大家彼此都坦誠一些,不用演戲了,—— ChatGPT 自己寫稿自己審吧。
「嘿,ChatGPT,你能幫我同行評審這篇論文嗎?」
ChatGPT:「是的,看起來不錯,你可以發布」
甚至,還真有網友把這篇文章丢給了 ChatGPT:「嘿,你能檢查一下這篇論文是否有任何明顯的 Chatgpt 使用迹象嗎?」
Chatgpt 認真審閱了稿件,表示:「是的,這篇論文的引言中有幾個迹象表明它可能是由人工智能撰寫的」,并給出了詳盡的理由:
插圖都是用 AI 畫的
更好笑的是,如今 AI 不僅榮升論文作者,甚至還在很多論文中充當起插畫師了!
前一陣,這篇名爲「Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway」 論文中的一幅插圖,讓網友們笑翻了。
仔細看這幅圖,可謂是槽點滿滿。
首先大鼠的坐姿就很奇怪,仿佛一隻松鼠。
圖中講的是從大鼠睾丸中分離、純化和培養精原幹細胞的過程,然而大鼠的睾丸竟然有 4 對,碩大的陰莖比身體還大,培養皿中甚至還有一把湯匙?
網友們紛紛表示吓住了,然而還有驚喜!
有人發現,這張信号通路圖也亮了。
這個不明意義的 protemns,應該是把 protein(蛋白質)拼錯了。
這個結構被拼成了 prom(舞會)。
這裏還出現了亂碼。
還沒完,Figure 3 依然有驚喜。
對于這些細胞圖,網友直接給出神評論:「仿佛披薩上撒着香腸和藍色西紅柿 ……」
當然,至少作者承認了插圖是由 Midjourney 生成的。
因爲引起了如此軒然大波,論文發表三天後,已經被期刊迅速撤回了。
期刊表示:文章不符合本刊的編輯和科學嚴謹标準。
AI 能檢測 AI 論文嗎?
但是,如果用了 LLM 卻不提前聲明,除了等着論文作者犯低級錯誤「自爆」之外,有沒有什麽辦法能檢測出論文的「含模量」?
不少有經驗的論文審稿人提供了一個可以參考的經驗,直接查論文的引用,如果随機抽 10 個論文引用,有超過一個論文引用是不準确的,那麽他就會懷疑論文至少某些部分是用 LLM 生成的。
因爲 LLM 生成論文最大的問題就是會瞎編引用。而網上很多通用的 LLM 檢測工具,基本上都不靠譜。
所以如果審稿人或者教授隻是簡單的依賴通用 AI 檢測工具來判斷的話,大概率是會冤枉好人的。
但是,雖然通用的 AI 檢測器不好使,如果針對某個專業領域的論文進行 AI 檢測,可能是一條走得通的路。
此前,Nature 報導了堪薩斯大學的一個團隊的研究成果,他們開發的學術 AI 檢測系統,能有效分辨論文中是否含有 AI 生成的内容,準确率高達 98%!
文章地址:https://www.nature.com/articles/d41586-023-03479-4
團隊的核心思路是,不追求制作一個通用的檢測器,而隻是針對某個具體領域的學術論文,來構建一個真正有用的 AI 内容檢測器。
通過針對特定類型的寫作文本定制檢測軟件,可能是通向開發出通用 AI 檢測器的一個技術路徑。
提取論文寫作風格的 20 個關鍵特征,然後将這些特征數據輸入 XGBoost 模型進行訓練,從而就能區分人類文本和 AI 文本。
最後,得到的 AI 論文識别率高達 98%。
希望未來至少能夠開發出針對學術界有用的 AI 内容檢測器,從而控制「AI 學術垃圾」的泛濫。
學生、老師紛紛用上 AI 神器,用魔法打敗魔法
AI 泛濫的,可不止是學術圈。在學校裏,各種 AI 工具的出現,也是把局面攪得一團糟。
現在,學生用 AI 寫作業,老師用 AI 打分,就問這個過程中還有真人嗎?
學生:ChatGPT 幫我寫作業
ChatGPT 的誕生首先,讓學生們看到了「機會」。
BBC 此前曾報道,兩位青年記者采訪自己的同學是否使用 AI 來幫自己寫作業。
有位同學表示自己的地理作業要到 deadline 了,「我用 ChatGPT 寫了整個演講。但是當我被問到相關問題時,我不知道我在說什麽」——挂了。
有同學表示自己使用 ChatGPT 來幫助自己理解問題,「當你做作業時,教室裏沒有老師,而 ChatGPT 就像一個老師。」
兩位記者做了份匿名調查,結果顯示,在 33 名學生中,有 31 人在學業中使用了人工智能,而 27 人認爲學校應該教授如何使用人工智能。
學生們表示,AI 工具有助于自己提出想法、研究,以及完善寫作結構和措辭等。
——不過,也有些人承認用 AI 來作弊。
雖然 ChatGPT 給出的答案并不總是正确,但這并沒有阻止大多數人使用它。
「你可以從 ChatGPT 之類的工具那裏得到一個真正結構化的答案,然後用其他擴展研究來支持它。」
關于這個 24 小時在線的「老師」是否更好,大家仍在争論。
不過與此同時,處在另一陣營的老師們,「也看到了機會」。
老師:ChatGPT 幫我批作業
自從 ChatGPT 面世以來,老師們就開始嘗試用它來批改作業。
比如,編制課程計劃、教學大綱,以及批改作業,檢測是否用了 AI 輔助等其他作弊行爲。
現在,美國的一些學校正式開始支持并鼓勵使用這一做法。
據 Axios 報道,老師們現在可以通過一款名爲 Writable 的新工具,利用 ChatGPT 對 3 至 12 年級學生的作業進行打分。
老師先布置寫作任務(比如「我的暑假經曆」),學生們通過線上方式提交作業。
然後,老師将這些作業提交給 Writable,Writable 又将它們交給 ChatGPT 處理。
接着,ChatGPT 會向老師提出評論和建議,老師們再對這些建議進行修改,之後反饋給學生。
爲了保護學生隐私,Writable 會将學生信息進行「詞元化」處理,确保不會将任何能識别個人身份的信息提交給 AI 系統。
但值得注意的是,AI 評分工具帶來的便利性可能誘惑老師「變懶」,學生們會因此失去獲得更深入反饋的機會。
比較勤勉的老師會把 ChatGPT 僅僅作爲輔助,但也可能會有老師直接把 AI 的建議不加修改地反饋給學生。
所以,在學校忙于拟定 AI 政策的同時,關于應如何劃定使用界限的讨論也在持續。利用 ChatGPT 來批改論文,在學術上算不算誠實?這樣做是不是對學生不公平?
教育科技公司認爲,像 Writable 這類自動化工具的目的是爲了給教師提供更多的自由時間和靈活性。
如果讓 AI 來承擔批改作業的繁重任務,那些時間緊張的教師就能有更多機會設計富有創意的課程并更好地了解自己的學生。
雖然一些家長對孩子作業上出現 AI 生成的評論表示非常不滿,但并非人人都持反對态度。
根據一項民意調查,當被問及「K-12 學校是否應該使用 AI 評估學生的學業表現」時,有 45% 的家長表示支持。