【导读】对于科研人员,尤其是研究生而言,阅读相关领域的最新论文十分重要,而每个月都有数百篇论文被发表,如何快速寻找以及阅读论文就变得至关重要。本文介绍了如何快速寻找与研究领域相关的论文,以及一些阅读论文的技巧。
作者|Nityesh Agarwal
编译|专知
整理|Yingying,李大囧
为什么阅读论文
Quora上曾有人提问,如何判断自己适不适合研究机器学习,Andrew Ng(吴恩达,谷歌大脑创始人,百度AI小组前负责人)表示,任何人都有资格从事机器学习 。在完成一些与机器学习相关的课程后,更进一步,我们应该阅读研究论文,并且复现文中的结果。这表明阅读研究论文对于进一步了解该领域至关重要。
每个月都有数百篇论文被发表,任何希望深入某一领域的人都不能仅仅依靠“教程"来了解最近的研究热点,跟上节奏的唯一方法是养成阅读研究论文的习惯。
怎么阅读论文
首先,阅读科研论文很难。事实上,阅读科研论文的时候总会觉得自己智商不够用,尤其是文章中出现很多公式证明的时候。看一遍可能不能真正理解文章内容,但是不要气馁,鼓起勇气再读一遍!
下面介绍对阅读论文有帮助的一些资源:
arXiv.org
arXiv是一个论文预发布平台,许多研究人员会在会议或期刊正式发表之前就会论文传到这个平台。他们为什么要那样做?事实证明,写完论文不是科研的终点。将论文提交到某些科学期刊上发表是一个漫长的过程,因为有同行评审。而这对于机器学习等快速发展的领域来说真的是不可取的。
因此,研究人员将他们的论文发布在像arXiv这样的预发布平台,以便快速得到反馈。
Arxiv Sanity Preserver
但是一打开ArXiv,你会发现,实在有太多论文了,光是找到自己感兴趣的论文就要找很久,而Arxiv Sanity Preserver(http://www.arxiv-sanity.com/)可以帮你迅速找到值得一看的文章,如最近一周推特上被提到最多的文章,根据你的阅读记录为你推荐的文章等。除此之外,它能够帮你找到与某篇文章相似的论文,也能够看到这个社区使用者关于某篇文章的讨论。更多功能有待自己去挖掘。
Reddit上的机器学习-WAYR
WAYR是What Are You Reading的缩写。它是reddit机器学习的一个主题,在这里,人们发布这周他们阅读的论文,并指出论文中有意思的地方。
正如我所说,每周在arXiv上发表的机器学习领域的研究论文数量非常多,一个人看不完,并且并不是所有论文都值得一读。而上述“论坛”能够帮你发现值得一读的论文。
链接:https://www.reddit.com/r/MachineLearning/comments/807ex4/d_machine_learning_wayr_what_are_you_reading_week/
NewsLetter
NewsLetter是追踪人工智能领域最新进展的最佳来源。订阅之后,每周都能收到本周与AI相关的最有趣的新闻,文章和研究论文。
几个比较好的来源:
Jack Clark的ImportAI
链接:https://jack-clark.net/
它除了提供最有趣的新闻,文章和研究论文之外,它还有一个名为“Tech Tales”的部分,包含基于过去一周活动的新AI相关短篇小说故事!
Sam DeBrule的机器学习:
链接:https://jack-clark.net/
Nathan Benaich的Nathan.ai
链接:
https://www.getrevue.co/profile/nathanbenaich
前两个NewsLetter都是每周一次,而这是一份季刊。因此,您每3个月会收到一封长电子邮件,其中总结了过去3个月内该领域最有趣的发展。
Denny Britz 的The Wild Week in AI
链接:https://www.getrevue.co/profile/wildml
推特上的“AI人”(翻墙食用更佳)
另一个可以跟上最佳和最新领域的好方法就是Follow着Twitter上着名的研究人员。比如说:
Michael Nielsen
Andrej Karpathy
Francois Chollet
Yann LeCun
Chris Olah
Jack Clark
Ian Goodfellow
Jeff Dean
OpenAI(我知道这不是“人”但是...)
推荐一下专知网站www.zhuanzhi.ai
直接上www.zhuanzhi.ai,就能获取最新论文拉!
图文并茂 是不是感觉顺畅,很好的体验有没有,赶紧试试吧
对拉,还有论文搜索这个,直接一键搜索你想要的论文!比如搜“GAN”
那么问题来了,怎么读论文?
没错,这是一个更为关键的问题。
首先要确保您了解机器学习和深度学习的基础知识 - 如反向传播,正则化以及ConvNets,RNN和LSTM。学习这些基础知识不用读提出他们的原始论文,毕竟网络上已经有很多对它们的解读和介绍,可以使我们快速理解概念。
打完基础之后,你才应该去找提出它们的原始论文。。这样,您就可以专注于习惯研究论文的结构。由于您已经非常熟悉这个想法,因此您不必过于担心理解不了它。
我建议您从AlexNet开始。为什么选这篇论文?看看这张图:
为什么Computer Vision and Pattern Recognition论文发表的数量在2012年突然上升?很大程度上是因为这篇论文。
这篇论文重新点燃了研究人员对深度学习的兴趣。
由Alex Krizhevsky,Ilya Sutskever和Geoffrey Hinton撰写,题为ImageNet Classification with Deep Convolutional Networks,本文被认为是该领域最具影响力的论文之一。它描述了作者如何使用CNN(名为AlexNet)赢得ImageNet大规模视觉识别挑战赛(ILSVRC)2012。
使计算机能够“看”和“识别”物体(计算机视觉)是计算机科学最早的目标之一。 ILSVRC就像是这种“能够看到世界的计算机”的奥运会,其中参与者(计算机算法)试图将图片归类为1000个之一。而且,2012年,AlexNet以巨大的优势赢得了这一挑战:
它达到了前5个错误率15.3%,而第二名的结果为26.2%。
毋庸置疑,整个计算机视觉社区都令人敬畏,该领域的研究前所未有地加速。人们开始意识到深度神经网络的强大功能。
话虽这么说,如果你事先对CNN有一定了解,那么掌握本文的内容将非常容易。
完成本文后,您可以查看与CNN相关的其他此类开创性论文,或者转移到您感兴趣的其他架构(RNN,LSTM,GAN)。
原文链接:
https://towardsdatascience.com/getting-started-with-reading-deep-learning-research-papers-the-why-and-the-how-dfd1ac15dbc0
-END-
专 · 知
人工智能领域26个主题知识资料全集获取与加入专知人工智能服务群: 欢迎微信扫一扫加入专知人工智能知识星球群,获取专业知识教程视频资料和与专家交流咨询!
请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!
请加专知小助手微信(扫一扫如下二维码添加),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~
请关注专知公众号,获取人工智能的专业知识!
点击“阅读原文”,使用专知