尷了個大尬!
人們還在嘲諷有人用 ChatGPT 寫論文忘了刪掉“狐貍尾巴”,另一邊審稿人也被曝出用 ChatGPT 寫同行評論了。而且,還是來自 ICLR、NeurIPS 等頂會的那種。
來自斯坦福的學者對一些頂級 AI 會議(如 ICLR、NeurIPS、CoRL 等)中的審稿意見進行了分析,結(jié)果發(fā)現(xiàn) ——
在 ChatGPT 出現(xiàn)之后,這些同行評論的“AI 含量”大增,最多的高達 16.9%,而有 ChatGPT 之前這個比例大約是 2%。
證據(jù)也很直觀,AI 常用的詞匯出現(xiàn)頻率,在 ChatGPT 發(fā)布之后噌的一下就上去了。
消息一出,Reddit 的機器學習板塊立刻就炸了鍋,有網(wǎng)友直呼:閉環(huán)了!
在 X 上,也有人發(fā)出了同樣的疑問:
既然寫論文和審稿都是大模型在干,那科學家去干什么了?
那么,這究竟是怎么一回事呢?
頂會審稿意見 AI 含量超 1/6來自斯坦福大學多個學院以及加州大學圣芭芭拉分校的研究人員發(fā)表了一項研究,主題是關于 ChatGPT 對 AI 學術會議同行評審的影響。
研究人員一共分析了 ICLR、NeurIPS、CoRL 和 EMNLP 這四個頂會中的同行評審意見,對其“AI 含量”進行了計算。
ICLR 2024:估計 α 值為 10.6%
NeurIPS 2023:估計 α 值為 9.1%
CoRL 2023:估計 α 值為 6.5%
EMNLP 2023:估計 α 值為 16.9%,超過了 1/6
(α 值指在所有內(nèi)容中疑似由 AI 生成或“顯著修改”的內(nèi)容所占的比例)
而在 ChatGPT 問世之前,α 值的水平大約是在 2%,作為對照的 Nature 系列期刊評審意見的 α 值則未發(fā)生顯著變化。
除了得出這些數(shù)據(jù),研究人員還發(fā)現(xiàn)了“AI 含量”較高的評審意見大多具有一些共同特點。
從內(nèi)容角度上看,“AI 含量”高的意見,引用的作者中包括“et al.”的學術內(nèi)容也較少。
而且,“AI 含量”高的內(nèi)容,在語義上也更加同質(zhì)化,比如“commendable”(值得稱贊的)、“meticulous”(細致的)和“intricate”(復雜的)等形容詞大量出現(xiàn)。
同時作者也展示了在 AI 生成的內(nèi)容中出現(xiàn)最頻繁的形容詞和副詞各 100 個,下圖中字號越大代表出現(xiàn)頻率越高。
而除了內(nèi)容本身,高“AI 含量”的內(nèi)容的作者在行為上也表現(xiàn)出了一些共同之處。
一是提交的時間更加接近截止期限,特別是截止前三天提交的意見“AI 含量”明顯更高。
除了提交時間晚,高“AI 含量”意見的作者,普遍對自己提交的內(nèi)容自信程度也更低。
評審者對自己評審意見信心水平的自我評估(滿分 5 分)結(jié)果顯示,“AI 含量”較高的審稿人,自我評分也更低(不大于 2 分)。
此外,對自己的審稿意見自信程度低的另一個表現(xiàn)是,他們也較少對論文作者反駁做出回應。
在 ICLR 2024 和 NeurIPS 2023 上,這類審稿人中有超過 12.5% 從未對反駁意見做出任何回復,約 10% 只回復了一次。
那么,作者又是如何分析出這些審稿意見中的 AI 含量的呢?
為此,研究人員設計了一種分布式“GPT 量化”方法,能夠在語料庫級別有效估計 AI 含量,而不必逐篇分析。
首先,研究人員收集了已知由人類編寫(ChatGPT 出現(xiàn)前的審稿意見)和 AI 生成(由研究者直接用 ChatGPT 編寫)的文本的數(shù)據(jù)集,作為參考分布。
然后,作者估計了人工編寫的(P)和 AI 生成(Q)的內(nèi)容的 token 分布,尤其重點關注形容詞的出現(xiàn)概率。
最后將這種分布模型擬合到未知成分的目標語料庫,假設每個文檔都是從人類和人工智能分布的加權組合中,即 (1-α) P+αQ,并使用最大似然估計來推斷 α 的值。
完成方法的構(gòu)建之后,研究者又合成了多組 α 值確定的標準數(shù)據(jù)集,并在此之上對前面提出的方法進行了驗證,結(jié)果最大誤差僅有 2.4%。
于是,作者使用該方法分析了最近幾個會議中的審稿意見,最終得到了前面的結(jié)論。
而當這項研究被更多人所得知后,引發(fā)了廣泛的討論,其中有不少人對這種現(xiàn)象表達了擔憂。
不過,也有人猜測出現(xiàn)這種現(xiàn)象的原因,可能是審稿人母語不是英語,于是用 ChatGPT 對英文寫作進行了調(diào)整潤色。
基于此,有人提問到,用 ChatGPT 來改寫而不是直接生成評論也是錯的嗎?
有人給出了半肯定的答復,但理由不是關乎原創(chuàng)性,而是出于對文本質(zhì)量的擔憂,人們還是應該謹慎使用 ChatGPT。
當然也有人說,科學寫作,本身就是 ChatGPT 的一種合理用途。
總之對于這件事,擔憂也好寬容也罷,這種現(xiàn)象都已然存在了,而按照原作者的觀點,這幾個問題是人們應該思考的:
是否應該披露 AI 在同行評審中的使用
在 AI 極具誘惑力的情況下,應該如何激勵好的實踐
在人工智能同質(zhì)化的境地下,人們能否保持“智力多樣性”
是否應該重新考慮人類 / AI 混合知識工作的可信度
當然了,在學術界,ChatGPT 生成的內(nèi)容,還遠不只是審稿意見。
論文作者也愛用除了審稿人被曝用 ChatGPT 寫評論之外,拿它來寫論文的人更是屢見不鮮……
在谷歌學術中搜索 2023 年及以后包含“certainly, here is”這種 ChatGPT 常用開頭的論文,剔除直接包含“ChatGPT”和“LLM”的論文后,結(jié)果共有 50 余篇。
隨機翻閱其中的幾篇,果然是發(fā)現(xiàn)了 ChatGPT 的使用痕跡,ChatGPT 在這些論文中被用做了總結(jié)、翻譯、制作表格等多種用途。
甚至其中還包括正式出版的論文合集:
而另一個 ChatGPT 常用句式“As of my Last Knowledge Update”,在相同條件下的搜索結(jié)果有 114 條。
而且出現(xiàn)形式上也更加離譜,“Certainly 組”當中至少還有一些只是用 ChatGPT 做了些輔助工作,“As of my…”這一組干脆直接拿來搞正文內(nèi)容了。
此外,“As an AI language model, I”也有 40 多條搜索結(jié)果,不過也不排除其中有誤傷的情況出現(xiàn)。
當然要論離譜,可能還要屬這種把 ChatGPT 的按鈕“Regenerate Response”也一起復制進去的了,而且數(shù)量還不算少,有將近一百篇。
露出雞腳馬腳被發(fā)現(xiàn)的論文數(shù)量尚且如此,刪去了這些關鍵字從而“躲過一劫”的究竟有多少,就更是不得而知了。
當然,并不是說研究者不能使用 ChatGPT 來輔助論文撰寫,包括 Elsevier、Springer(Nature 出版商)在內(nèi)的許多知名出版機構(gòu)都表示并不禁止 ChatGPT 的使用,只要進行聲明即可。
總之,無論是論文本身還是審稿意見,亦或是其他文本寫作,如何以更合理的方式運用 AI,值得人們繼續(xù)深入思考。
論文地址:
https://arxiv.org/abs/2403.07183
本文來自微信公眾號:量子位 (ID:QbitAI),作者:克雷西
本文鏈接:http://www.www897cc.com/showinfo-45-3859-0.htmlChatGPT 也在評審你的頂會投稿,斯坦福新研究捅了馬蜂窩
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com