深度学习中创新点比较小,但是有效果,可以发(水)论文吗?

2022 年 4 月 25 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨王晋东
来源丨王晋东不在家
编辑丨极市平台

极市导读

 

研究生想发篇论文混个毕业,深度学习方向的,创新点很小,但是做实验是有效果的。请问这样可以发篇水刊的sci吗? >>加入极市CV技术交流群,走在计算机视觉的最前沿

首先,当然可以发。不过即使你不提点,也可以发。然后,重点是如何发?给出一些讨论以供参考:

刨根问底法

此种方法最为直接,即知其然也要知其所以然。如果你提的小改进使得结果变好了,那结果变好的原因是什么?什么条件下结果能变好、什么条件下不能?提出的改进是否对领域内同类方法是通用的?这一系列问题均可以进行进一步的实验和论证。你看,这样你的文章不就丰富了嘛。这也是对领域很重要的贡献。

移情别恋法

不在主流任务/会议期刊/数据集上做,而是换一个任务/数据集/应用,因此投到相应的会议或期刊上。这么一来,相当于你是做应用、而不是做算法的,只要写的好,就很有可能被接受。当然,前提是该领域确实存在此问题。无中生有是不可取的,反而会弄巧成拙。写作时一定要结合应用背景来写,突出对领域的贡献。

声东击西法

虽然实际上你就做了一点点提升和小创新,但你千万不能这么老实地说呀。而是说,你对这个A + B的两个模块背后所代表的两大思想进行了深入的分析,然后各种画图、做实验、提供结果,说明他们各自的局限,然后你再提自己的改进。这样的好处是你的视角就不是简单地发一篇paper,而是站在整个领域方法论的角度来说你的担忧。这种东西大家往往比较喜欢看、而且往往看题目和摘要就觉得非常厉害了。这类文章如果分析的好,其价值便不再是所提出的某个改进点,而是对领域全面而深刻的分析。

移花接木法

不说你提点,甚至你不提点都是可以的。怎么做呢?很简单,你就针对你做的改进点,再发散一下,设计更大量的实验来对所有方法进行验证。所以这篇paper通篇没有提出任何方法,全是实验。然后你来一通分析(分析结果也大多是大家知道的东西)。但这不重要啊,重要的是你做了实验验证了这些结论。典型代表:Google家的各种财大气粗做几千个实验得出大家都知道的结论的paper,比如最近ICLR'22这篇:Exploring the Limits of Large Scale Pre-training.

为避免误导大家,我在这里做个说明:所列出的技巧方法绝对不是灌水方法,而是正常的科研思维和写作手法。即使是创新性比较大、对领域有大贡献的东西仍然可以采用类似手法来写。这就要求大家在写作时找准出发点和落脚点,才能做到有的放矢。毕竟写作投稿这种事就像写文学作品,平铺直叙虽朴实无华,却难免让别人有审美疲劳。最后,这并不是说采用以下写法的文章都是套路和灌水,它们均有各自的意义;同时,也并不是说采用以下方式就一定能中文章:抛开写作技巧不谈,任何事情均需认真刻苦对待以求完善。

最后说一句,不管上述哪种方法、甚至即使你有特别大的创新时,写作永远都是重要的。


公众号后台回复“数据集”获取90+深度学习数据集下载~

△点击卡片关注极市平台,获取 最新CV干货
极市干货
数据集资源汇总: 10个开源工业检测数据集汇总 21个深度学习开源数据集分类汇总
算法trick 目标检测比赛中的tricks集锦 从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks
技术综述: 一文弄懂各种loss function 工业图像异常检测最新研究总结(2019-2020)


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~   
登录查看更多
1

相关内容

王晋东,现于中国科学院计算技术研究所攻读博士学位,研究方向为迁移学习、机器学习等。他在国际权威会议ICDM、UbiComp等发表多篇文章。同时,也是知乎等知识共享社区的机器学习达人(知乎用户名:王晋东不在家)。他还在Github上发起建立了多个与机器学习相关的资源仓库,成立了超过120个高校和研究所参与的机器学习群,热心于知识的共享。个人主页:[http://jd92.wang](http://jd92.wang/)
ICLR 2022 | BEIT论文解读:将MLM无监督预训练应用到CV领域
专知会员服务
32+阅读 · 2022年3月24日
2021->2022必看的十篇「深度学习领域综述」论文
专知会员服务
112+阅读 · 2022年1月1日
Transformer替代CNN?8篇论文概述最新进展!
专知会员服务
76+阅读 · 2021年1月19日
深度学习目标检测方法综述
专知会员服务
274+阅读 · 2020年8月1日
卷积神经网络的概述论文:分析、应用和展望,21页pdf
专知会员服务
90+阅读 · 2020年4月7日
【综述】金融领域中的深度学习,附52页论文下载
专知会员服务
163+阅读 · 2020年2月27日
导师放羊,想不出论文选题,该怎么办?
PaperWeekly
0+阅读 · 2022年5月24日
编辑视角下,论文摘要、引言、结论怎么写?
极市平台
0+阅读 · 2022年5月3日
训练1000层的Transformer究竟有什么困难?
PaperWeekly
0+阅读 · 2022年3月13日
你是在创新,还是在瞎搞?
人人都是产品经理
0+阅读 · 2022年1月23日
发现一篇专门吐槽 NLP 内卷现状的 ACL 论文 ...
夕小瑶的卖萌屋
0+阅读 · 2021年8月23日
阅读深度学习论文的新姿势
计算机视觉life
16+阅读 · 2018年7月22日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年6月9日
Arxiv
13+阅读 · 2019年11月14日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关资讯
导师放羊,想不出论文选题,该怎么办?
PaperWeekly
0+阅读 · 2022年5月24日
编辑视角下,论文摘要、引言、结论怎么写?
极市平台
0+阅读 · 2022年5月3日
训练1000层的Transformer究竟有什么困难?
PaperWeekly
0+阅读 · 2022年3月13日
你是在创新,还是在瞎搞?
人人都是产品经理
0+阅读 · 2022年1月23日
发现一篇专门吐槽 NLP 内卷现状的 ACL 论文 ...
夕小瑶的卖萌屋
0+阅读 · 2021年8月23日
阅读深度学习论文的新姿势
计算机视觉life
16+阅读 · 2018年7月22日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年6月9日
Arxiv
13+阅读 · 2019年11月14日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
Arxiv
22+阅读 · 2018年8月30日
Top
微信扫码咨询专知VIP会员