CVPR再度上演抄袭大戏!IBM中稿论文被指照搬自己承办竞赛第二名的idea

2022 年 6 月 28 日 新智元



  新智元报道  

编辑:拉燕 好困

【新智元导读】CVPR再曝抄袭门!这次是「大厂直抄,很会包装」。IBM,在?来解释解释?

一波未平,一波又起,CVPR 2022又被曝出论文抄袭!

这两天,来自中国的研究团队发现,自己去年参加ICDAR竞赛的idea,竟然被IBM拿去投中了今年的CVPR。

而这件事最讽刺的一点在于,ICDAR 2021正是由IBM自己承办的。

目前,作者已经将相关举证信息发给了CVPR的Program Chairs。

这件事的热度还在发酵。Reddit上的讨论热度即将破千。

然而,挑战大厂的权威,又何谈容易呢。

作者自述


下面,让我们用第一人称,还原一下原作者的自述。感受一下原作者的愤怒和委屈。

「我叫Xianbiao Qi,在计算机视觉领域搞研究已经十多年了。我写这篇博客是为了揭露一起明目张胆的剽窃行为。IBM苏黎世研究院剽窃了我们的研究。」

「他们抄的不是文本内容,他们抄的是我们辛辛苦苦做出来的idea。」

Xianbiao Qi所说的论文是「PingAn-VCGroup's Solution for ICDAR 2021 Competition on Scientific Literature Parsing Task B: Table Recognition to HTML」,于2021年6月上传至arXiv,合作者有Jiaquan Ye, Xianbiao Qi和Yelin He等人。

此外,代码也一并进行了开源。

论文地址:https://arxiv.org/abs/2105.01848

而抄袭团队则是来自IBM苏黎世研究院的Ahmed Nassar, Nikolaos Livathinos, Maksym Lysak和Peter Staar等人。

他们把最精华的点子吃干抹净带走,然后把文章改头换面地发在了IEEE/CVF计算机视觉和模式识别会议论文集上。

剽过来的文章名叫「TableFormer: Table Structure Understanding with Transformers」,请大家擦亮慧眼。

论文地址:https://arxiv.org/abs/2203.01017

Xianbiao Qi表示,Nassar等人的文章把我们的整体方法,以及预处理和后期处理的部分、可视化部分、推理部分、给出的系统解决方案都抄了过去。甚至还有代码和预训练模型。

但是,Nassar等人没什么别的本事,完美包装却熟练得很。他们的文章没有一个字引用了Xianbiao Qi团队的文章内容。他们以为这样就能把查重蒙骗过去了。

通俗地讲就是,研究生抄袭一般直接抄文字,而这位苏黎世的博士后更「高级」——重写idea。

实际上,这办法还真行。Nassar等人的文章确实没被判定为抄袭。最后还是其他很多专家发现了两篇文章在idea上的雷同,转告给了Xianbiao Qi团队。

在Reddit上,有不少网友表示支持作者维权,同时也提醒他在举证的时候尽量不要带有情绪,虽然很难做到。

也有网友指出,现在列出的证据远非决定性的:

这两个团队在同一个问题上,使用相同的公开数据,解决方案也有相似之处。但这并不意味着一方抄袭了另一方。

而知乎上对此的讨论也非常热烈。

简要时间线


事情就是这么个事情,时间线还是有必要好好梳理一下的:

2021年4月7日,Xianbiao Qi团队结束了ICDAR 2021表格识别竞赛,并取得了第二名的成绩。这是由澳大利亚的IBM小组举办的。

同年5月5日,团队在arXiv上发表了想法的技术报告,以及预印版本。占了个坑。

两个月之后的7月29日,团队开源了相关代码,甚至还在Github上公开了相关的幻灯片。

2021年9月,团队发布了TableMASTER的预训练模型。11月,继续发布了tablemaster_mmocr的docker环境。

Xianbiao Qi自嘲道,「我们这个项目基本等于全裸了,该发布的全发布了。但我们发布是为了造福整个社区,不是方便你们抄袭来的。」

年底,来也技术团队在「表格识别方法评述及来也科技的实践」提到了这篇论文:

TableMASTER从一个非常新颖的角度来解决表格识别问题,是一次大胆的尝试,并且效果也是十分出色。PaddleOCR也用相似的思路开源了一个十分轻量的表格识别模型,并提供了PubTabNet数据集的预训练模型,略有不同的是paddleTable采用了RARE和GRU而不是MASTER和transformer。

时间来到2022年3月2日,TableFormer发布了。

当然,Xianbiao Qi愤怒之下没有丧失冷静,他列举了九大证据,实锤抄袭。

9大证据


  1. Our methodology, you plagiarize
  1. Our Pre-processing, you plagiarize
  1. Our Post-processing, you plagiarize
  1. Our Inference speedup method,  you plagiarize
  1. Our "tricky" work, you even plagiarize
  1. Our text line detection and text line recognition, you plagiarize
  1. Our systematic solution, you plagiarize
  1. Our visualization, you plagiarize
  1. Misleading the audiences in order to not be captured for plagiarism


第一,方法论部分,抄了。
TableFormer直接抄袭了Xianbiao Qi团队的点子,把文字部分改写了。
而且关键的图表也重新画了一遍。但是核心思想是雷同的。
第二,预处理阶段,抄了。
Nassar等人直接盗用了齐宪标团队的序列长度最大值500,然后悄悄改成了512。其实为什么改成这个数他们自己也不清楚。
第三,后期处理部分,抄了。
Xianbiao Qi的团队设计了三个巧妙的规则来处理后期部分。
而抄袭团队直接根据Qi的团队放出的开源代码,把三个规则写成了9条。
而这些规则和代码是Xianbiao Qi的团队花了好几周的时间才完成的。
第四,推理加速方法,抄了。
在推理阶段,Xianbiao Qi团队在之前的论文中提出了一种memory-cache方法。而Nassar等人直接就用了。
Xianbiao Qi表示,「你们真懂是啥意思吗就用?」
第五,小技巧,居然也抄了。
第六,文本行检测和文本行识别,抄了。
Xianbiao Qi团队训练文本行检测和识别的过程,Nassar等人直接抄了。
第七,系统化解决方案,抄了。
两边的处理过程完全一样,不可能完全是巧合。
第八,可视化部分,抄了。
可以看到,可视化的图标部分,Nassar等人只是换了个颜色。
第九,用各种手段误导读者,避免因为剽窃被抓到。

最后,作者表示这次学到的最深刻的教训就是:「即使开源了代码,也不要开源自己训练好的模型。」

参考资料:

https://www.zhihu.com/question/539137931/answer/2542178330
https://www.reddit.com/r/MachineLearning/comments/vlpnuw/d_ibm_zurich_research_plagiarised_our_paper_and/



登录查看更多
0

相关内容

ICDAR是一个非常成功的旗舰会议系列,是文献分析界研究人员、科学家和实践者的最大和最重要的国际会议。该会议得到了IAPR-TC 10/11的认可,成立于近30年前。第15届文件分析与识别国际会议(ICDAR 2019)由澳大利亚悉尼科技大学(UTS)主办,并在悉尼国际会议中心(ICC)举行。接受的论文由会议出版服务(CPS)出版,并提交给IEEE Xplore数字图书馆。官网链接:http://icdar2019.org/
CVPR2022论文列表出炉!2067篇论文都在这了!
专知会员服务
53+阅读 · 2022年6月6日
NeurIPS 20201接收论文列表发布,2334篇论文都在这了!
专知会员服务
37+阅读 · 2021年11月4日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
47+阅读 · 2021年4月18日
AAAI 2021论文接收列表放出! 1692篇论文都在这儿了!
专知会员服务
72+阅读 · 2021年1月3日
专知会员服务
113+阅读 · 2020年10月8日
【预告】CSIG图像图形技术国际在线研讨会第六期将于7月5日举办
中国图象图形学学会CSIG
0+阅读 · 2022年6月28日
百余大佬署名AI论文被爆抄袭!智源现已致歉
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年8月31日
国家自然科学基金
0+阅读 · 2011年4月30日
Arxiv
2+阅读 · 2022年9月2日
VIP会员
相关VIP内容
CVPR2022论文列表出炉!2067篇论文都在这了!
专知会员服务
53+阅读 · 2022年6月6日
NeurIPS 20201接收论文列表发布,2334篇论文都在这了!
专知会员服务
37+阅读 · 2021年11月4日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
47+阅读 · 2021年4月18日
AAAI 2021论文接收列表放出! 1692篇论文都在这儿了!
专知会员服务
72+阅读 · 2021年1月3日
专知会员服务
113+阅读 · 2020年10月8日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年8月31日
国家自然科学基金
0+阅读 · 2011年4月30日
Top
微信扫码咨询专知VIP会员