來源 | 募格學術整理自新智元、Reddit、知乎等
編輯 | 學術君
不是吧?清華自動化本科,香港科技大學碩士生發表的頂會論文竟然是抄的?
而且抄襲對象還是另一篇頂會論文?
近日,眼尖的網友發現兩篇分別發表在 ICML 2021 和 ICCV 2021 兩大頂會的論文有着驚人的相似之處!
PS:ICCV、ICML均為中國計算機學會在人工智能方向推薦的A類國際學術會議,為世界頂級的學術會議。
ICML 2021上發表的論文
ICCV 2021上發表的論文
而隨着更多網友對論文的分析,有人指出這是一種很高明的「洗稿」技巧,Reddit上還有網友跑去了「抄襲者」的網站上看了作者的資料,發現這位作者已經發表過12篇頂會論文,而且還是准博士生,也不禁懷疑是不是一直都有這樣的操作……
輿論關注之下,被指論文抄襲的兩位作者及一作的導師在知乎上進行了回應。一作作者李鐸發表致歉,表示將就此事「積極配合調查」,目前對該論文已採取撤稿措施。
頂會論文被指抄襲
網友指這是一種「技術活」抄襲
事情起源於法國國家科學研究中心博士後研究員Pierre Ablin在社交平台發的一篇推文。
他寫道「模仿是最真誠的讚美形式?」
並貼出兩篇內容有重合的論文。
這兩篇論文分別是ICML 2021和ICCV 2021兩大頂會的論文。
其中,被指控抄襲的論文一作,是清華自動化本科,香港科技大學的碩士,並且已獲香港博士研究生獎學金計劃(HKPFS)資助,將在2021年至2024年攻讀博士學位。
導師還是張潼和陳啟峰兩位業界知名大佬,碩士兩年在被視為計算機視覺方面的三大國際頂尖會議(ICCV、CVPR、ECCV)上共發表12篇論文,其中7篇一作,還曾在英特爾、商湯科技、字節跳動、英偉達實習。
此人還是之前小有名氣的被CVPR 2021被接收的論文 Involution 模型的一作。
有着如此優秀、令絕大多數人羨慕不已的履歷,還要搞論文抄襲,你敢相信嗎?
而隨着更多網友對被指控論文的分析,有人指出,這是一種「有技巧」的抄襲方式。
先來看看兩篇論文的對比:
首先是論文的公開時間。
「正主」ICML論文題為Momentum residual neural networks,作者是Michael Sander, Pierre Ablin, Mathieu Blondel and Gabriel Peyré。
今年2月15日首次上傳至Arxiv,2月17日開源代碼,7月22日發布論文最新版。
論文地址:https://arxiv.org/abs/2102.07870
開源代碼:https://github.com/michaelsdr/momentumnet/
「被指抄襲」ICCV論文題為m-RevNet: Deep Reversible Neural Networks with Momentum,作者是Duo Li(李鐸)和Shang-Hua Gao(高尚華)。
今年8月12日上傳至Arxiv,而ICCV 2021論文收錄的截止時間為3月17日。
論文地址:https://arxiv.org/abs/2108.05862(文章現已被刪除)
雷同一:提出想法相同
兩篇文章都提出了替換殘差網絡的前向方程方法,也同樣討論了這種方法的好處:由於ODE機制中的動量,可逆性和更大的表徵容量減少了內存負載。
其中,利用
: 和 的動量方程取代殘差網絡的前向方程 。雷同二:圖表相似
左圖為ICML論文,右圖為ICCV論文
雷同三:表格相似
表格中有3列內容是相似的:
closed form inversion = analytical reversal,
same parameters = architecture preservation
unconstrained training = end-to-en optimization.
而ICCV論文中只是添加了ResNet基線。
ICML論文
ICCV論文
雷同四:完全相同的初始數據集,四個嵌套環
兩篇論文都引用了一篇前人的研究(https://arxiv.org/abs/1904.01681) ,在這篇引文中,作者使用了2個嵌套環。
以前從來沒有人用過四個嵌套環作為說明。
ICML論文
ICCV論文
雷同五:主要貢獻的公式相似
ICCV只是把ICML中的臨界參數「gamma」換成了「1-mu」。
左圖為ICML論文,右圖為ICCV論文
雷同六:文內引用相同
左圖為ICML論文,右圖為ICCV論文
兩篇文章同樣以Maclaurin等人的算法作為關鍵的應用。
左圖為ICML論文,右圖為ICCV論文
雷同七:命題和證明相同
只不過符號略有變化,ICCV將時間導數表示為
,而ICML中為 。左圖為ICML論文,右圖為ICCV論文
雷同八:論文貢獻列表相似
兩篇論文的貢獻列表都是大同小異,但很明顯能夠感覺到ICCV論文是「洗稿」的。
左圖為ICML論文,右圖為ICCV論文
雷同九:微積分方程完全相同
ICCV中的例1基本上就是修改了一下符號,微積分方程本質上完全相同。
另外,兩篇文章解決方案中的順序也完全相同。
左圖為ICML論文,右圖為ICCV論文
左圖為ICML論文,右圖為ICCV論文
雷同十:同樣是得到兩個嵌套環的啟發
左圖為ICML論文,右圖為ICCV論文
這兩篇論文說一樣吧,又不是完全一樣;要說是偶然,這得多巧合才能「偶然」出十個雷同點。
知乎上更有答主直接指出:這種洗稿方式,也算是項工作量巨大的「技術活」了。
知乎匿名用戶回答
抄襲慣犯?
隨着這篇論文被曝光,有人還扒出了這位一作疑似用這種手法在2020年就給CVPR投稿了一篇「照搬」2019年CVPR的文章。
CVPR 2019接收論文,作者來自清華大學。
論文地址:https://arxiv.org/abs/1906.00675
CVPR 2020接收論文,作者李鐸。
論文地址:https://arxiv.org/abs/2003.10739
「其通篇向人們展示了如何包裝出一篇頂會論文!實在是觸目驚心,看得我頭皮發麻。」
具體參照知乎回答:https://www.zhihu.com/question/480075870/answer/2064933570
作者和導師火速回應
這一事件迅速引起了極大的輿論關注,知乎上的相關話題甚至有100多萬次瀏覽。
茲事體大,論文一作首先撤回了Arxiv上的論文,針對抄襲指控,該論文的二作、一作導師及一作先後在知乎作出回應。
導師致歉,表示自己有「不可推卸的督導不嚴的責任」。
一作導師、香港科技大學助理教授陳啟峰表示,「對於李鐸相關論文涉嫌嚴重學術不端,作為導師的我有不可推卸的督導不嚴的責任。」
並表示我們正在深入調查包括其他的論文在內的李鐸的工作。在調查之後嚴肅處理相關問題,於近日公布相關處理措施。
二作:對於文章合作方面的不嚴謹,對於自己沒有充分貢獻但成為作者感到十分抱歉和羞愧。
該論文的二作高尚華,現為南開大學博士研究生,師從南開大學計算機科學與技術系系主任兼教授程明明。高尚華本科畢業於西安電子科技大學,研究興趣包括計算機視覺和OAM通信。
二作作為涉事論文的改稿人,第一時間要求一作提供相關工作證據,但一作卻聲稱數據已損壞。
面對這麼可疑的解釋,二作決定向ICCV反映相關情況,並要求撤稿。
二作在知乎上的澄清與道歉
二作向ICCV大會發送要求撤稿的郵件
其表示對該文章與ICML的工作相似性如此之高感到震驚和詫異。在仔細對比兩篇工作後,我也很難相信這是兩篇無關的同期工作。
我在這個事件中承認並深刻檢討我對於文章合作方面的不嚴謹,我對自己在沒有對這項工作有充分貢獻但成為作者感到十分抱歉和羞愧。
我深知我的錯誤是不可推卸的,我對因為這件事情造成傷害的ICML文章作者致以最誠摯的抱歉。我知道無論如何也無法挽回我的過錯,我今後一定更加嚴格要求自己,嚴格規範自己與他人的文章合作,我也一定會儘自己最大努力做出有意義的工作來回報所有幫助和支持我的人。對不起大家,讓你們失望了!
一作:已經採取了撤稿的措施。鄭重道歉,積極配合調查。
針對抄襲指控,一作李鐸17日下午作出致歉回應,並表示「已經採取了撤稿的措施。我在這裡向大家鄭重道歉,會在此事中積極配合調查。」針對「在行文過程中無意識地產生了相似之處」,他進行了解釋。
我深知自己在科研中對於相關工作的調研出現了嚴重疏漏,導致與已有的工作出現了雷同,造成了不好的影響。我已經進行了深刻的自我反省和檢討,對於在此事件中受到傷害的Paper A的作者們,以及Paper B的合作者表示衷心的抱歉(高尚華同學僅參與到paper revision,對於細節不甚了解),同時對於給兩位導師引起的不必要的麻煩和誤解表示誠摯的歉意。鑑於已有相同idea的文章發表,我們目前已經採取了撤稿的措施。我在這裡向大家鄭重道歉,會在此事中積極配合調查,也虛心接受大家的批評!
對於大家密切關注的疑似抄襲的問題,我們根據Paper A作者提供的對比,仔細總結了兩篇文章的異同以及我當時的構思:由於文章核心idea非常簡明,導致在行文過程中無意識地產生了相似之處。
詳細回應:https://www.zhihu.com/question/480075870/answer/2065820430
科研不易,且行且珍惜,願大家都珍惜羽毛,不觸碰學術不端的事。
本文來源:募格學術整理自新智元、Reddit、知乎等
轉載本文請聯繫原作者獲取授權,同時請註明本文來源
評論列表
情感方面有問題,真的是要找專業的諮詢機構
被拉黑了,還有希望麼?
如果發信息,對方就是不回復,還不刪微信怎麼挽回?