百科问答小站 logo
百科问答小站 font logo



如何看待 ICCV21 接收的某港科大学生为一作的论文被指抄袭 ICML21 发表的论文? 第1页

     

user avatar   xin-zhi-yuan-88-3 网友的相关建议: 
      

不是吧?港科大准博士生发表的顶会论文竟然是抄的?而且抄袭对象还是另一篇顶会论文?近日,眼尖的网友发现两篇分别发表在ICML 2021和ICCV 2021两大顶会的论文有着惊人的相似之处!

ICML 2021上发表的论文

ICCV 2021上发表的论文Reddit上有网友跑去了「抄袭者」的网站上看了作者的资料,发现这位作者已经发表过12篇顶会论文,而且还是准博士生,不禁怀疑是不是一直都有这样的操作……

有人模仿我的脸,有人模仿我的……论文?


推特上一位眼尖的网友发现了两篇顶会论文几乎如出一辙,网友非常细心地对比了两篇论文。首先是论文的公开时间。「正主」ICML论文题为Momentum residual neural networks,作者是Michael Sander, Pierre Ablin, Mathieu Blondel and Gabriel Peyré。今年2月15日首次上传至Arxiv,7月17日开源代码,7月22日发布论文最新版。

论文地址:arxiv.org/abs/2102.0787开源代码:github.com/michaelsdr/m「山寨」ICCV论文题为m-RevNet: Deep Reversible Neural Networks with Momentum,作者是Duo Li(李铎)和Shang-Hua Gao(高尚华)。今年8月12日上传至Arxiv,而ICCV 2021论文收录的截止时间为3月17日。

论文地址:arxiv.org/abs/2108.0586(文章现已被删除)抄袭还是一项十分严重的指控,我们先来仔细对比一下两篇论文。雷同一:提出想法相同两篇文章都提出了替换残差网络的前向方程方法,也同样讨论了这种方法的好处:由于ODE机制中的动量,可逆性和更大的表征容量减少了内存负载。其中,利用

的动量方程取代残差网络的前向方程

雷同二:图表相似

左图为ICML论文,右图为ICCV论文雷同三:表格相似表格中有3列内容是相似的:closed form inversion = analytical reversal,same parameters = architecture preservationunconstrained training = end-to-en optimization.而ICCV论文中只是添加了ResNet基线。

ICML论文

ICCV论文雷同四:完全相同的初始数据集,四个嵌套环两篇论文都引用了一篇前人的研究(arxiv.org/abs/1904.0168) ,在这篇引文中,作者使用了2个嵌套环。以前从来没有人用过四个嵌套环作为说明。

ICML论文

ICCV论文

雷同五:主要贡献的公式相似ICCV只是把ICML中的临界参数「gamma」换成了「1-mu」。

左图为ICML论文,右图为ICCV论文雷同六:文内引用相同

左图为ICML论文,右图为ICCV论文


两篇文章同样以Maclaurin等人的算法作为关键的应用。

左图为ICML论文,右图为ICCV论文雷同七:命题和证明相同只不过符号略有变化,ICCV将时间导数表示为

,而ICML中为

左图为ICML论文,右图为ICCV论文

雷同八:论文贡献列表相似两篇论文的贡献列表都是大同小异,但很明显能够感觉到ICCV论文是「洗稿」的。

左图为ICML论文,右图为ICCV论文雷同九:微积分方程完全相同ICCV中的例1基本上就是修改了一下符号,微积分方程本质上完全相同。另外,两篇文章解决方案中的顺序也完全相同。

左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文雷同十:同样是得到两个嵌套环的启发

左图为ICML论文,右图为ICCV论文

这两篇论文说一样吧,又不是完全一样;要说是偶然,这得多巧合才能「偶然」出十个雷同点。

瞬间成为热点


论文抄袭事件在Reddit上已经有330个赞,而知乎上的相关话题也已经有100多万次浏览。


兹事体大,不仅ICCV作者撤回了Arxiv上的论文,他的导师也在知乎上发文致歉,表示自己有「不可推卸的督导不严的责任」。

此外,ICCV论文二作高尚华同样也在知乎上澄清,对涉事文章与ICML论文极高相似度「感到震惊和诧异」。二作作为涉事论文的改稿人,第一时间要求一作提供相关工作证据,但一作却声称数据已损坏。面对这么可疑的解释,二作决定向ICCV反映相关情况,并要求撤稿。

二作在知乎上的澄清与道歉

二作向ICCV大会发送要求撤稿的邮件

深扒论文作者——李铎


凡事都讲证据,面对「抄袭」这一指控,网友们也是非常小心谨慎,避免误伤。李铎现就读于香港科技大学计算机科学与工程系,硕士二年级,2019年获得清华大学自动化系工学学士学位。

可以看出,李铎本人的学历背景还是很优秀的。

个人主页:web.archive.org/web/202


李铎发表论文一览然而没想到的是,这两篇论文的作者学术背景也成为了这个指控的证据。那ICML论文作者又是何方神圣?知乎上有匿名网友深扒了两篇文章的作者学术背景,对比了两人的研究内容。

随后,还有网友补充了被抄袭论文一作的学术背景。

这样一对比,两位作者的水平就高下立判了。


抄袭惯犯?


我们的这位一作在2020年就给CVPR投稿了一篇「照搬」2019年CVPR的文章。CVPR 2019接收论文,作者来自清华大学。

论文地址:arxiv.org/abs/1906.0067 2020接收论文,作者李铎。

论文地址:arxiv.org/abs/2003.1073连母校的同学都不放过……「其通篇向人们展示了如何包装出一篇顶会论文!实在是触目惊心,看得我头皮发麻。」

知乎回答:zhihu.com/question/4800李铎导师同时也在知乎上表明,他们正在深入调查李铎过去发表的论文,后续会根据调查结果严肃处理,并于近日公布相关处理措施。


参考资料:

reddit.com/r/MachineLea

michaelsdr.github.io/mo

twitter.com/PierreAblin

zhihu.com/question/4800

web.archive.org/web/202


ICML 2021 Momentum residual neural networks:arxiv.org/abs/2102.0787 2021 m-RevNet: Deep Reversible Neural Networks with Momentum:arxiv.org/abs/2108.0586 2019 Deeply-supervised Knowledge Synergy:arxiv.org/abs/1906.0067 2020 Dynamic Hierarchical Mimicking Towards Consistent Optimization Objectives:arxiv.org/abs/2003.1073


user avatar    网友的相关建议: 
      

一个多月过去了,贵校这调查与处理速度怕不是侧面反映了重视程度?莫非是有太多的论文需要调查?所以需要很多时间?北理工学生9月只是挂个arxiv都已受到处分,贵校学生投中了顶会,石沉大海了,大拇指不由得竖了起来。这大概就是科研小白与学术新星的待遇区别。


更新。Duo Li已承认ICCV2021 m-RevNet抄袭ICML2021 Momentum ResNet,以及CVPR2020 DHM抄袭CVPR2019 DKS。也算是前些日子我的辛苦解读没有白费吧。


更新。Duo Li本人在本回答下的回复:

「论文B在发表于CVPR2020前在ICCV2019有过submission,ICCV2019 deadline为19年3月,review版本放在链接: pan.baidu.com/s/1O5ijrN (提取码: wtab),而论文A发布于arXiv的时间为19年6月。」

由于现在摆出的证据已足以证明论文A与论文B高度相似,且有着基本不可能是撞车的雷同。由于Duo Li在19年3月前后在论文A的二作Anbang Yao所在的Intel实习过并有合作,因此其具备获得论文A渠道的可能性,因此这不能证明他投稿ICCV19是有力的反驳证明。

如果真如他所言,那只可能是CVPR19的论文A抄袭了其论文B。

对此若有人士可联系到论文A的作者,可以联系出来表态。


看了这两篇论文,第一感是不可思议,非常震惊,再看了Duo Li那篇受质疑的CVPR 2020,更加劲爆。

经过我数小时的阅读,总结如下:

论文A:Deeply-supervised Knowledge Synergy,Dawei Sun, Anbang Yao, Aojun Zhou, Hao Zhao,CVPR 2019,19年6月公布于arxiv

论文B:Dynamic Hierarchical Mimicking Towards Consistent Optimization Objectives,Duo Li, Qifeng Chen,CVPR 2020,20年3月公布于arxiv

论文B没有引用论文A。

单从论文名上看,论文A是“知识协同的深度监督”,论文B是“面向一致优化目标的动态分层模仿”,乍一看,是两篇论文,但是!论文B是论文A的高级英文解读版!

其通篇向人们展示了如何包装出一篇顶会论文!实在是触目惊心,看得我头皮发麻。

先介绍一下论文A,这篇论文写的非常好,通俗易懂,基本上搞AI的只要了解图像分类就能明白它的原理,门槛不高。

论文A的故事是现有的分类模型,大多采用backbone CNN最后softmax得到概率输出,再与GT计算loss。如下图的(a)所示:

而图(b)呢,则是前人尝试的把中间层也传入一些额外层,再经过softmax,最后同样与GT算CE loss。

图(a)的loss的计算公式表达如下:

图(b)的loss计算公式为:

这里不考虑正则化项,因为与论文idea无关。

于是这样的训练方式,可以帮助浅层更好的学习,不然的话浅层就会因为距离最后一层太远了得不到有效的监督,所以这有助于缓解梯度消失的问题。

那么论文A认为,所有这些中间层包括最后一层,它们之间的信息交互没有利用上,于是提出干脆让它们两两之间互相拟合(类似于知识蒸馏中的让一个概率输出去拟合另一个概率输出嘛)。就有了下图的形式:

各个箭头就表示让被指向的终点去拟合起始点,也是通过CE loss,只不过这里的优化目标不再是0,1,而是浮点数(也叫soft target)。于是呢就有了上图的三种优化方式,从上到下从下到上,以及双向。于是就添加了一个synergy loss:

我们可以通过调控集合B,想让哪两层之间拟合就让哪两层之间拟合,单向的亦或者双向的。

这就是论文A的DKS (Deeply-supervised Knowledge Synergy)的思想,总体框架如下图所示

当然了,论文A也指出,这些额外层的结构设计对最终性能至关重要,于是对额外层的结构统一设置为residual block

接下来,让我们来看看Duo Li等人的CVPR 2020论文B。

结构上来看,是一模一样的,均为让所有层的概率输出两两互相拟合,唯一的区别是,他将CE loss更改为KL loss。论文A中有一段说明了其DKS与知识蒸馏的不同,DKS是在同一个模型的内部不同层之间互相拟合,而知识蒸馏则是学生-教师之间互相拟合。那么显然在知识蒸馏中使用KL loss拟合概率输出是很常见的,所以论文B巧妙地更改为了KL loss。并且论文B将这样的idea取名为Hierarchical Mimicking (分层模仿),其中mimick是知识蒸馏里面特征图模仿的常用术语。

其实仔细看两篇论文的Fig 1,也是能明显看到,两篇论文的概率分布长得一模一样,ctrl+c,ctrl+v

暂且容忍这点小细节,我们主要来看他的idea,首先论文B也描述了前人的添加中间层辅助loss的方法

我们再次容忍他更换字母,因为他叙述的毕竟是前人已有的工作。但请注意,以上雷同都只是Sec 3.1,介绍深度学习的框架和前人的添加中间层辅助监督的方法,算不上抄袭。但是Sec 3.2就是提出各自的方法了。

对于论文A提出的DKS,论文B重述为DHM (Dynamic Hierarchical Mimicking) :

显然,我们看到论文B的DHM方法就是论文A的DKS方法,只是把公式复杂化了,显得有对比性,原创性,更加高大上,也更加具有迷惑性。并且额外层的结构设计也是Residual block

论文B相比于论文A的区别在于:

  1. 替换CE loss为KL loss。
  2. 中间层以随机的方式丢弃,不参与知识传输。但这只占了一句话。整个DHM占了Sec 3.2几乎所有的篇幅,紧接着就是experiment章节。

接下来看看两文的实验部分。

首先是CIFAR-100的实验,注意下面的DS(左表)和DSL(右表)是一样的,都是Deep-Supervised Learning,

可以看到,就连网络结构的选取也是大面积重合,不同的结构完全有时间训练。

接着是ImageNet,注意论文B称之为 ILSVRC 2012

可以看到,论文B多做了一个ResNet-101的实验。

Ablation study论文B有所选取,选择性地做了

这里论文A用了字母C,论文B用字母B,下标是层序号,对于论文A,1是最深层,4是最浅层。而对于论文B,0是最深层,3是最浅层。

论文A得出的第一个结论:比起只用最深层C1的监督,搭配上任何一个中间层效果都更优,论文B同理。

第二个结论:两篇论文同时得出,搭配两个中间层最优,因此论文A声称“we choose to add C2 and C3 for all experiments on the ImageNet classification dataset.”而论文B声称“Hence we adopt the double-branch model in our main experiments...”也即二者均采取添加两个中间层的做法。

第三个结论:当搭配的中间层过多了,会导致性能下降,论文B同理。见上图两表的最后一行。

接下来,为了探究DKS的方法是否能够改善中间层的分类性能,论文A让中间层直接单独训练分类,相当于去掉了更深层的模型,用上DKS表示将最深层的知识传输到该中间层。

表格说法不同,但做的是同样的探究实验。

更可笑的是下一个实验,为探究自己的方法对Noisy data是否有效,论文A把一定比例的GT label随机替换成错误标签。这在论文B中被称为Corrupt Data。玩文字游戏是吧。

接下来,为了增强论文的理论性,使之看起来更加专业、高大上、具有迷惑性,论文B仿照了论文A的附录1。给出了理论性证明。该命题的核心观点是:本文方法之所以有效,是因为这种层正则化技术,会惩罚两个分支关于他们共享的中间层特征图梯度之间的不一致。这在论文B中被称为“Implicit Penalty on Inconsistent Gradients”,即隐式惩罚梯度的不一致。

从证明的式子可以看到,两种证明方法不约而同使用到了泰勒展开公式,区别在于论文A由于简化为均方误差来讨论的缘故,所以在使用泰勒展开式后得到了 这一项,而论文B维持实际使用的CE loss,所以不存在进一步平方,而维持了 ,并且最终去掉了该扰动的高阶无穷小项,等号转为约等号。

这部分描述被论文B分为两块,一块放于正文,一块放于附录。其中, 在论文A中表示对数据进行扰动,且 。在论文B中,被替换为 .

种种以上迹象,把论文A的章节挪到附录,或者把论文A的附录描述移到正文,不得不说论文B的作者为了产出这篇高质量顶会复刻文,可谓是煞费苦心!工作量巨大!如果一个人来做,给我一个月我是做不下来。所以对本次ICML21的高仿,当然一方面是这次模仿地糙了些,追求速度,所以破绽更容易看。另一方面也是因为有了经验,所以复刻起来更快。

抄袭没有那么简单的,也是项技术活。

首先必须在arxiv上筛选大量属于我领域的且开源的论文,我要判断出其idea的novelty,实验的规范性,图表的美观性,值不值得我抄袭。

接着我找准了猎物,开始了模仿,玩起了语言艺术。图必须重画,必须精美包装,调色彩空间,调scale,调标注。更要新图,将猎物论文的idea用新图阐述一遍。

实验我当然也不能全部模仿,对猎物论文中涉及的实验,我要适当选取,观察其涨点幅度与规律。适当添加一些新实验结果(我也没必要去做),有着相似的涨点幅度。能复现的论文一切都好说,先复现一两个结果,submit了论文,实验慢慢做,反正最后就算开源也不用与论文结果一样,我可以声称是retraining的结果。也不用怕达不到效果,因为猎物论文给了我们理论和实验支撑,我们只管复现即可。

添加曲线图,即把一些评估指标关于某个参数的散点图曲线化。留有余力则尝试跑其开源代码,获取loss曲线,评估曲线,添加随机因子,缩放坐标区间,调整曲线粗细颜色。

公式重述化,等价化,符号变化,命题适当选取。这里很佩服敢抄袭数学证明的,就我这个有数学背景的人,都觉得一晚上反复理解他们的公式非常辛苦,更别说他们要照猫画虎,哦不,其实应该说照虎画猫(尊重一下被抄袭论文,画猫也是有难度的哈哈)。

查询引文资料,获取相关描述,寻找未出现语句,更改后加入。把related work的相关片段部分重调至introduction以更好地重述一个story。

私以为一个月内搞出一篇高质量复刻文还是非常困难与时间紧迫的,基本上要天天肝,同时应付rebuttal也是一门技术活。

最后我们再来看一下本问主题论文,是有关如何避免ResNet的内存成本随网络深度线性增加的问题,并且其数学工具用到了Neural ODE(神经常微分方程)。并且从猎物论文的附录我们可以看到大量的数学公式推导和理论证明,说明该文数学理论性较强,正如作者所说该工作耗费了他们一年的时间。

从Duo Li的猎物选取来看,他比较倾向于选择自己相关领域的,看上去solid的,刚发布arxiv的论文。通常这样的论文复刻完后因为比较solid,投CV顶会容易中,另一方面有可能自己中了,而猎物论文因为投理论性强的顶会没中,那自己就赚大了。

现在再来看猎物论文作者的背景,一作是小白,尚不清楚背景。二作是法国国家科学中心博士后,具有应用数学硕士的教育背景,目前主要研究神经网络优化特性和理论特性。三作主要研究理论机器学习,最优传输,微分方程等。上述二人发表的论文大多为NIPS,ICML等理论性较强的机器学习顶会。

再来看m-RevNet作者阵容,一作清华自动化本科,港科技计算机研二,二作南开计算机博士,二人研究的方向为计算机视觉,机器学习,网络优化。从其近几年发表的论文来看,多为分割,检测,网络结构更改与优化等相关,发表的论文也集中在CV会议上。由此基本可判断数学背景不高,所做的工作数学理论性不强。当然他要是能保证一边每年发表三篇CV顶会的同时,还一边恶补各种数学理论知识,那真的是神。所以到底工作是谁做的,大家心中自有定数。


user avatar   eric314 网友的相关建议: 
      

我大受震撼,洗稿顶会好像也没比洗稿公众号难多少,贵圈药丸。。。

灵魂问题:他是第一个这么干的,还是第一个被抓住的?


user avatar   chen-qi-feng-17 网友的相关建议: 
      

香港科技大学已按程序就事件展开调查。官方声明请看

HKUST attaches great importance to academic integrity


2021年8月16日下午,我收到了关于我硕士生李铎的ICCV 2021论文m-RevNet: Deep Reversible Neural Networks with Momentum(于2021年3月17日投稿)存在学术不端问题的质疑。具体来说,这篇文章与Google发表于ICML 2021年的论文Momentum Residual Neural Networks (网址:arxiv.org/abs/2108.0586) 存在多处雷同。这篇论文首次提交到arXiv的日期是2021年2月15日,正式发表于2021年7月份举行的ICML会议上。为了回应公众关切,在此做出一下澄清:

1. 对于李铎相关论文涉嫌严重学术不端,作为导师的我有不可推卸的督导不严的责任。在此,我向大家诚挚地道歉。

2. 由于该论文属于李铎在疫情期间不在香港期间所作的工作,我并没有参与,也没有作为共同作者。下午收到相关信息后,我第一时间联系了该论文以及其他几篇相关论文涉及的第三方,并且跟大家核实记录。在大量的证据面前,大家都不太相信李铎声称的只是巧合的说法。在前期合作中,其他几个相关单位主要是帮助对实验室方案和论文写作提出修改意见。我对于给几个第三方合作者造成的困扰深表遗憾。

3. 我深刻地意识到在指导研究生的过程中存在的不够严谨的情况。作为导师,不光是没有参与的论文不作为共同作者。也应该对学生进行有效的学术诚信培养,对即使是未跟导师合作的论文也符合学术规范。

4. 我们正在深入调查包括其他的论文在内的李铎的工作。在调查之后严肃处理相关问题,于近日公布相关处理措施。

5. 关于CVPR 2020论文Dynamic Hierarchical Mimicking的说明。该论文可以追溯到2019年3月,李铎曾把该存在抄袭的论文投稿至ICCV 2019(我不是ICCV投稿的合作者也并不知情)。2019年9月他入学港科大后想把该论文投到CVPR 2020。当时,我主要给论文提了一些建议,很不幸没有发现CVPR 2019的Deeply-supervised Knowledge Synergy。我一直没有发觉该论文存在抄袭,直到最近在知乎上有人指出这两篇论文。对于我的疏忽与不够严谨,深感抱歉和羞愧!将会向CVPR PC说明情况、要求撤稿。


user avatar   zhanghang0704 网友的相关建议: 
      

关于“引战贴”:

不知道因为何种原因,此贴一直在诱导舆论,制造不必要的对立。此帖说我“站在道德制高点上,十多次指责陈启峰老师”。同时有以陈启峰老师方面的口吻指责我“学术不端”,毫无逻辑,今天突然说要以我为网爆的例子,已经删除了对我“学术不端”的指控,但是仍然没有删除引战的误导信息。我保留了部分截图(如下)。我在知乎上的回答为曾删改,不知道该作者何出此言,制造我与陈老师对立又对他有何种意义呢?(@知乎小管家 这种造谣引战等行为,知乎是不是应该管一下)

有其他知乎用户指出,此贴一开始还把其他非学术造假文章夹带进帖子,有意拉更多人下水,作者现在已经删去了。

————————————————————

08/21,昨天号称反对网络暴力的匿名贴,话题突然转向,攻击我“学术不端”,让我猝不及防,希望这个答主可以加强自身知识水平。

————————————————————

08/20,有匿名贴指出有对陈启峰老师网络暴力的情况,可以看出这件事陈老师并不知情,作为教授同时指导很多学生,不可能每一篇文章都参与到代码和实验,陈老师也是受害者,希望他可以尽快走出困境。

不希望此事朝任何网络暴力的方向发展。

————————————————————

08/19,当事人已经道歉

————————————————————

08/17更新一下,老实说这件事能引起这么大的波澜,也不是一两个人的错误引起的,是大家对领域内氛围的长期不满积压出来的结果。一小部分人没有踏实做研究,而是选择“走捷径”,带坏了风气。这件事出来,我第一时间担心的是当事人受打击太大,承受不起,看到共同作者撇清关系之迅速,觉得不舒服。

刚刚看到当事人也发了帖子,看来我可能是多虑了。当事人是清华的学生,借用一下贵校校讯,“自强不息厚德载物”,希望做学术的人可以以此严格要求自己。

————————————————————

反对学术不端,但是不希望这件事发展成为网络暴力。

我不认识当事人和他的共同作者,客观讲,每一个做科研的朋友都希望有一个良好的科研环境,大家可以更好的交流学术成果,共同进步。这次出现“洗稿”的情况,确实涉及严重学术不端,当事人包括共同作者应该受到应有的惩罚,给领域内同行一个交代。

出了事儿之后,多位共同作者第一时间发帖,撇清关系,给人一种推卸责任的感觉。作为共同作者,不仅享有文章带来的荣誉,更应该履行核实文章内容义务。希望这些曾经合作过的朋友,可以帮一作认清错误,走出困境,给大家诚恳道歉。


user avatar   wang-feng-98-82 网友的相关建议: 
      

吃瓜吃了几天,对这件事的评论各位已经说了很多,我这里就不发表什么感言了。

我想从另一个角度讲一下:如果自己的工作不幸与他人撞车,如何证明自己的idea是独立想出来的而不是洗稿?这里提供几种办法:

1、首先是平时就要养成用git维护代码的习惯,可以在github上维护一个private的repository,平时做实验就不断往里提交代码,等最后要开源代码的时候一并放出来,什么时间试了什么东西都是有据可查的,很容易自证清白。

同时不断提交记录本身也是自我审视的一个过程,让我们更容易发现一些程序上的漏洞。

2、其次是注意保存实验代码,在提供checkpoint修改时间作为证据时,最好能同时记录下当时的实验代码。一个比较好的方式是在启动一次训练时,在train函数里直接将核心代码打包复制到checkpoint目录下,这样既方便自己对比不同实验的代码(跑实验多的时候,真的会忘记自己改了什么),也为捍卫自己的名誉留一份证据。

3、最后就是推荐使用overleaf来撰写论文,overleaf是有历史记录功能的,有钱的可以买一个会员,在网页上就可以看到历史记录,没钱的也不用担心,overleaf实际上是用git来维护的,点击sync即可得到一条命令将其clone下来,这样什么时间做了什么修改也是能看到的。

不过overleaf在临近deadline时会卡,所以我一般一开始在overleaf上写作,同时用git同步到github的私有repo里,当overleaf变卡时我可以无缝切换到本地继续写作,写作完成同时上传到overleaf的git和github。


总之,这次抄袭事件为我们敲响了警钟,抄袭的后果是严重的,可能会葬送我们的学术生涯。但也请注意此次事件的另一面,平时多留一个心眼,万一有人向我们泼脏水,我们也能拿出证据来自证清白。


user avatar   tylin98 网友的相关建议: 
      

大家好,我是心医霖林,你们也可以叫我金政委/胡主编。看到大家对这次事件关注度很高,包括各种图片/表格/Proposition的高度类似在内的种种证据都表明,一作李铎很有可能抄袭了谷歌大脑团队发表在ICML上的文章。

但我想呼吁大家,不能排除一种可能性,也许是谷歌团队抄袭了李铎同学的文章。

有人可能会问,谷歌团队的文章发表于2月份,怎么可能抄袭李同学3月提交的论文呢,难道他们会穿越时空吗?

没错,我们不能排除一种可能性,那就是美国人已经发明掌握了穿越时空的方法。谷歌团队也许正是用了时间机器,穿越到3月份,窃取了李同学的手稿。

除了生化武器、气象武器,我们还必须警惕敌对国家的时间武器攻击。

警惕拜登借助时间武器抹黑我国的科研人员。

————

我觉得我这么洗,都比 @李铎 的回答有说服力。


user avatar   li-duo-99-36 网友的相关建议: 
      

因为我的学术不端行为,在此我向大家郑重道歉。我在ICCV2021和CVPR2020两篇论文中存在抄袭行为。对于在此事件中涉及到的论文合作者们表示最诚挚的歉意,他们并不知情。非常悔恨因为一时急功近利铸成大错,也给我的导师以及学校带来了无妄之灾。事已至此,我的内心极度的自责与羞愧,我今后一定会从中吸取教训,严格规范自己的行为。

最后,衷心地感谢在科研道路上以及生活中帮助过我的师长、亲人朋友们,我辜负了你们的期望,对不起!我必将痛定思过,做真诚的自己。


user avatar   zhou-bo-lei 网友的相关建议: 
      

Vladlen Koltun在一次研讨会中说过一句让我记忆犹新的话:“Each paper is a liability”。发越多的paper,这种liability也越多,所以并不是paper发越多越好。

如履薄冰,做老师的真是怕遇到坑师的学生。话说按师徒关系,Koltun还算是这学生的师爷。。 汗


user avatar   summer-clover 网友的相关建议: 
      

两年十二篇论文,七篇一作,

原来不一定是灌水、挂名,还可以是洗稿。



一起大事故背后可能有几十起起小事故。

一次这么严重的学术丑闻背后也不知道有多少次学术不端。



精准展示了当前国内AI学术圈劣币驱逐良币的风气。

丑闻是当事人的丑闻,但是风气是一群人的风气。



一,以paper数量为KPI的评价体系已经乌烟瘴气。甚至逐渐从灌水进化到抄袭、洗稿了。


即使是灌水出来的,七篇CV的一作顶会仅仅按数量来说,无论在哪个学校都够博士毕业了。

就这还嫌自己发paper不够快。可能抄idea都嫌浪费时间了,不如从方法到实验直接洗稿。

这个丑闻只是洗稿者的丑闻。但这个数paper的风气是催生灌水、抄袭、洗稿的土壤,也功不可没。

Duo Li身处的小环境是不是也是数paper成风,以数量论英雄?——你paper多,所以你是学霸大牛。



二,挂名成风。


这次,导师没有挂名可以说是逃过一劫。

但是很多大组的学生组内、组间胡乱挂名、互相蹭paper的风气,也明显破坏了学术传统。

这次的事件里,co-author没有深度参与论文就贸然挂名,蹭到了论文却也付出上自己的学术声誉。

但这个风气后面更多的是,蹭到了论文,灌到了水,却并没有付出什么代价的。





记得学校硕士和博士入学的第一堂课都是学术伦理,外加一个线上的学术伦理教育测试。

什么是规范引用,什么可以算co-author规定得清清楚楚。

刚读博时老板第一次meeting就和我强调:

1)不用急着发论文,享受自己的生活和假期,享受做学术的过程。

(所以实验室假期特别长,一年寒暑假加起来有四个月时间,没有组会,自由安排。

老板不会主动打扰你,但是你可以随时找老板讨论。)

2)合格的博士需要的是「独立研究」的能力,你不用发表太多论文,只需要两篇代表作证明你独立研究的能力就可以毕业了。

3)不要随便在论文上加名字,论文作者必须对论文有重要贡献。可以把参与一般讨论的同学放在致谢里。


不知道清华和港科到底有没有在一开始就对学生进行学术伦理的教育?

没有学术伦理教育就开始做学术,是很容易走上弯路的。

如果走上弯路的太多了,肯定会破坏整体的学术声誉和学术规范。


再次强调,丑闻是当事人的丑闻,风气是一群人的风气。




     

相关话题

  为什么sci比ssci好发? 
  《荒野之息》是否有抄袭《旺达与巨像》的嫌疑? 
  如何看待高福院士对于论文争议的回应:大家混淆了论文与临床诊断?科学家是该先发表论文还是该先进行防控? 
  哪个瞬间你对中国科研圈彻底失望了? 
  如何评价疾控中心高福院士关于“新型冠状病毒”的论文? 
  如何自己选择未来的科研方向? 
  为什么90年代的博士论文允许复制别人内容,而现在不允许了呢?这个演变的内在逻辑是什么? 
  五十岁,职称为研究员的导师,但简介基本没什么内容,这个导师到底好不好? 
  如何看待网传中国工程院调查院士李兆申疑似涉嫌剽窃论文? 
  博士论文写不下去怎么办? 

前一个讨论
为什么初学量子力学一个矩阵都没有看到,却说线性代数是量子力学的数学语言?
下一个讨论
如何评价 NeurIPS 2021 的review,rebuttal 以及后续的接收情况?





© 2024-05-17 - tinynew.org. All Rights Reserved.
© 2024-05-17 - tinynew.org. 保留所有权利