-欢迎加入AI技术专家社群>>
如果你有非常大的决心从事深度学习,又不想在这一行打酱油,那么研读大牛论文将是不可避免的一步。而作为新人,你的第一个问题或许是: “论文那么多,从哪一篇读起“本文将试图解决这个问题-文章标题本来是:‘从入门到绝望,无止境的深度学习论文’请诸位备好道具,开启头悬梁锥刺股的学霸姿势。
开个玩笑。但对非科班出身的开发者而言,读论文的确可以成为一件很痛苦的事。但好消息来了 - 为避免初学者陷入迷途苦海,昵称为songrotek的学霸在GitHub发布了他整理的深度学习路线图,分门别类梳理了新入门者最需要学习的DL论文,又按重要程度给每篇论文打上星星。
截至目前,这份 DL论文路线图已在GitHub收获了近万颗星星好评,人气极高。小雷感到非常有必要对大家进行介绍。闲话少说,该路线图根据以下四项原则而组织:从大纲到细节,从经典到前沿,从一般到具体领域,关注最新研究突破。有许多论文很新但非常值得一读。
1深度学习历史和基础
1.0书籍
[0] Bengio,Yoshua,伊恩J.古德费洛,亚伦库维尔。 “深学习”。一本MIT出版社的书。(2015年)。(Ian Goodfellow等大牛所的教科书,乃深度学习圣经。你可以同时研习本本以及以下论文)
地址:
https : //github.com/HFTrader/DeepLearningBook/raw/master/DeepLearningBook.pdf
1.1调查
[1] LeCun,晏,约书亚·本焦,和杰弗里·辛顿。“深入学习” Nature 521.7553(2015):436-444。[pdf](三巨头做的调查)
地址:
http : //www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf
1.2深度置信网络(DBN,深度学习前夜的里程碑)
[2] Hinton,Geoffrey E.,Simon Osindero和Yee-Whye Teh。“深度信仰网络的快速学习算法”。神经计算18.7(2006):1527-1554。[pdf](深度学习前夜)
地址:
http : //www.cs.toronto.edu/~hinton/absps/ncfast.pdf
[3] Hinton,Geoffrey E.和Ruslan R. Salakhutdinov。“用神经网络降低数据的维数” 科学313.5786(2006):504-507。[pdf](里程碑,展示了深度学习的前景)
地址:
http : //www.cs.toronto.edu/~hinton/science.pdf
1.3 ImageNet的进化(深度学习从此萌发)
[4] Krizhevsky,亚历克斯,Ilya Sutskever和Geoffrey E. Hinton。“深度卷积神经网络的图像分类”。神经信息处理系统的进展。2012. [pdf](AlexNet,深度学习突破)
地址:
http : //papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
[5] 西蒙尼,凯伦和安德鲁Zisserman。“用于大规模图像识别的非常深的卷积网络”。arXiv预印本arXiv:1409.1556(2014)。[pdf](VGGNet,神经网络变得很深层)
地址:
https : //arxiv.org/pdf/1409.1556.pdf
[6] Szegedy,Christian,等人。“进一步卷积。” IEEE计算机视觉和模式识别会议论文集。2015年。[pdf](GoogLeNet)
地址:
http : //www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf
[7] 他,开明,等。“图像识别的深度残留学习” arXiv预印本arXiv:1512.03385(2015)。[pdf](ResNet,特别深的神经网络,CVPR最佳论文)
地址:
https : //arxiv.org/pdf/1512.03385.pdf
1.4语音识别的进化
[8] Hinton,Geoffrey,等人。“语音识别声学建模的深层神经网络:四个研究小组的共同观点”。IEEE Signal Processing Magazine 29.6(2012):82-97。[pdf](语音识别的突破)
地址:
http://cs224d.stanford.edu/papers/maas_paper.pdf
[9] 格雷夫斯,亚历克斯,阿卜杜勒拉赫曼穆罕默德和杰弗里辛顿。“深度回归神经网络的语音识别” IEEE声学,语音和信号处理国际会议。IEEE,2013. [pdf](RNN)
地址:
http://arxiv.org/pdf/1303.5778.pdf
[10] 格雷夫斯,亚历克斯和Navdeep Jaitly。“使用递归神经网络实现端到端语音识别” ICML。卷。14. 2014. [pdf]
地址:
http : //www.jmlr.org/proceedings/papers/v32/graves14.pdf
Sak,Haim等人[11] “用于语音识别的快速准确的递归神经网络声学模型”。arXiv预印本arXiv:1507.06947(2015)。[pdf](谷歌语音识别系统)
地址:
http : //arxiv.org/pdf/1507.06947
[12] Amodei,Dario等人。“深度演讲2:英文和普通话的端到端语音识别” arXiv预印本arXiv:1512.02595(2015)。[pdf](百度语音识别系统)
地址:
https : //arxiv.org/pdf/1512.02595.pdf
[13] W. Xiong,J. Droppo,X. Huang,F. Seide,M. Seltzer,A. Stolcke,D. Yu,G. Zweig“在会话语音识别中实现人类奇偶性”。arXiv预印本arXiv:1610.05256(2016)。[pdf](最前沿的语音识别,微软)
地址:
https : //arxiv.org/pdf/1610.05256v1
研读以上论文之后,你将对深度学习历史,模型的基本架构(包括 CNN,RNN,LSTM)有一个基础的了解,并理解深度学习如何应用于图像和语音识别问题。接下来的论文,将带你深入探索深度学习方法,在不同领域的应用和前沿尖端技术。我建议,你可以根据兴趣和工作/研究方向进行选择性的阅读。
2深度学习方法
2.1模型
[14] Hinton,Geoffrey E.等人 “通过防止特征探测器的共同适应改进神经网络”。arXiv预印本arXiv:1207.0580(2012)。(pdf)(Dropout)
地址:
https : //arxiv.org/pdf/1207.0580.pdf
[15] Srivastava,Nitish,等。“辍学:一种简单的方法来防止神经网络过度配合。” 机器学习研究杂志15.1(2014):1929-1958。[PDF]
地址:
http : //www.jmlr.org/papers/volume15/srivastava14a.old/source/srivastava14a.pdf
[16] 约费,塞吉,和Christian Szegedy。批量标准化:通过减少内部协变量来加速深度网络培训。arXiv预印本arXiv:1502.03167(2015)。[pdf](2015年的杰出研究)
地址:
http : //arxiv.org/pdf/1502.03167
[17] BA,麦雷,杰米瑞恩基罗斯,和Geoffrey E.欣顿。“图层标准化”。arXiv预印本arXiv:1607.06450(2016)。(批量标准化的更新)
地址:
https ://arxiv.org/pdf/1607.06450.pdf ? utm_source = sciontist.com & utm_medium = refer &utm_campaign = promote
[18] Courbariaux,Matthieu等。“二值化神经网络:训练神经网络的权重和激活限制为+ 1或1。[pdf](新模型,快)
地址:
https : //pdfs.semanticscholar.org/f832/b16cb367802609d91d400085eb87d630212a.pdf
Jaderberg,Max等人[19] “使用合成梯度解耦神经接口” arXiv预印本arXiv:1608.05343(2016)。[pdf](训练方法的创新,研究相当不错)
地址:
https : //arxiv.org/pdf/1608.05343
[20] 陈天棋,伊恩·古德费洛和乔纳森·斯伦斯。“Net2net:通过知识转移加速学习” arXiv预印本arXiv:1511.05641(2015)。[pdf](改进此前的训练网络,来缩短训练周期)
地址:
https : //arxiv.org/abs/1511.05641
[21] 魏涛,等。“网络形态主义” arXiv预印本arXiv:1603.01670(2016)。[pdf](改进此前的训练网络,来缩短训练周期)
地址:
https : //arxiv.org/abs/1603.01670
2.2优化优化
[22] Sutskever,伊利亚,等。“关于初始化和深入学习势头的重要性。” ICML(3)28(2013):1139-1147。[动力优化器]
地址:
http : //www.jmlr.org/proceedings/papers/v28/sutskever13.pdf
金 玛,迪代里克和吉米巴。“亚当:随机优化的一种方法”。arXiv预印本arXiv:1412.6980(2014)。[pdf](也许目前最常用)
地址:
http : //arxiv.org/pdf/1412.6980
[24] Andrychowicz,Marcin等人。“学习通过梯度下降学习梯度下降。”arXiv预印本arXiv:1606.04474(2016)。[pdf](神经优化,惊人的工作)
地址:
https : //arxiv.org/pdf/1606.04474
[25] Han,Song,Huizi Mao和William J. Dally。“深层压缩:用修剪,经过训练的量化和霍夫曼编码来压缩深层神经网络。CoRR,abs / 1510.00149 2(2015)。[pdf](ICLR最佳论文,让NN快速运行的新方向,DeePhi Tech Startup)
地址:
https : //pdfs.semanticscholar.org/5b6c/9dda1d88095fa4aac1507348e498a1f2e863.pdf
[26] Iandola,Forrest N.,et al。“SqueezeNet:AlexNet级精度,参数少于50x,模型大小小于1MB” arXiv预印本arXiv:1602.07360(2016)。[pdf](也是优化NN的新方向,DeePhi Tech Startup)
地址:
http : //arxiv.org/pdf/1602.07360
2.3无监督学习/深度生成模型
[27] 乐,五富国“建设采用大规模无监督学习高层次的特点。” IEEE声学,语音和信号处理国际会议。IEEE,2013. [pdf](里程碑,吴恩达,谷歌大脑,猫)
地址:
http : //arxiv.org/pdf/1112.6209.pdf&embed
[28] 金玛,Diederik P.,和Max威灵。“自动编码变分贝叶斯”。arXiv预印本arXiv:1312.6114(2013)。[PDF](VAE)
地址:
http : //arxiv.org/pdf/1312.6114
Goodfellow,Ian等人[29]。“生成对抗网”。神经信息处理系统的进展。2014年。[pdf](GAN,很酷的想法)
地址:
http : //papers.nips.cc/paper/5423-generative-adversarial-nets.pdf
[30] 雷德福,亚历克,卢克梅斯和Soumith Chintala。“深度卷积生成敌对网络的无监督表示学习”。arXiv预印本arXiv:1511.06434(2015)。[pdf](DCGAN)
地址:
http : //arxiv.org/pdf/1511.06434
[31] 格里,卡罗尔,等。“DRAW:用于图像生成的经常性神经网络”。arXiv预印本arXiv:1502.04623(2015)。[pdf](VAE注意,很出色的研究)
地址:
http : //jmlr.org/proceedings/papers/v37/gregor15.pdf
[32] 奥德,亚伦范登,纳尔·卡尔布伦纳和科拉·库夫克库奥卢。“像素递归神经网络”。arXiv预印本arXiv:1601.06759(2016)。[pdf](PixelRNN)
地址:
http : //arxiv.org/pdf/1601.06759
[33] Oord提供,阿龙范登,等人。“条件图像生成用PixelCNN解码器”。arXiv预印本arXiv:1606.05328(2016)。[pdf](PixelCNN)
地址:
https : //arxiv.org/pdf/1606.05328
2.4递归神经网络(RNN)/序列 - 序列模型
[34] 格雷夫斯,亚历克斯。“用循环神经网络生成序列” arXiv预印本arXiv:1308.0850(2013)。[pdf](LSTM,效果很好,展示了RNN的性能)
地址:
http : //arxiv.org/pdf/1308.0850
Cho,Kyunghyun等人[35] “学习使用RNN编码器 - 解码器进行统计机器翻译的短语表示”。arXiv预印本arXiv:1406.1078(2014)。(pdf)(第一篇Sequence-to-Sequence的论文)
地址:
http : //arxiv.org/pdf/1406.1078
[36] Sutskever,伊利亚,奥里奥尔Vinyals和杜国安V.勒。“用神经网络进行序列学习的顺序” 神经信息处理系统的进展。(pdf)(杰出研究)
地址:
http : //papers.nips.cc/paper/5346-information-based-learning-by-agents-in-unbounded-state-spaces.pdf
[37] Bahdanau,Dzmitry,KyungHyun Cho和Yoshua Bengio。“神经机器翻译联合学习对齐和翻译”。arXiv预印本arXiv:1409.0473(2014)。[PDF]
地址:
https : //arxiv.org/pdf/1409.0473v7.pdf
[38] Vinyals,Oriol和Quoc Le。“神经对话模型” arXiv预印本arXiv:1506.05869(2015)。(pdf)(Seq-to-Seq聊天机器人)
地址:
http ://arxiv.org/pdf/1506.05869.pdf%20( http://arxiv.org/pdf/1506.05869.pdf)
2.5神经网络图灵机
[39] 格雷夫斯,亚历克斯,格雷格韦恩,伊沃丹尼赫卡。“神经图灵机” arXiv预印本arXiv:1410.5401(2014)。(pdf)(未来计算机的基础原型机)
地址:
http : //arxiv.org/pdf/1410.5401.pdf
[40] 扎伦巴,沃伊切赫和伊利亚·苏库克维尔。“强化学习神经图灵机” arXiv预印本arXiv:1505.00521 362(2015)。[PDF]
地址:
https : //pdfs.semanticscholar.org/f10e/071292d593fef939e6ef4a59baf0bb3a6c2b.pdf
[41] 威斯顿,贾森,住友乔普拉和安托万博德斯。“内存网络” arXiv预印本arXiv:1410.3916(2014)。[PDF]
地址:
http : //arxiv.org/pdf/1410.3916
[42] Sukhbaatar,Sainbayar,Jason Weston和Rob Fergus。“端到端的内存网络” 神经信息处理系统的进展。2015年。[pdf]
地址:
http : //papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf
[43] Vinyals,Oriol,Meire Fortunato和Navdeep Jaitly。“指针网络” 神经信息处理系统的进展。2015年。[pdf]
地址:
http : //papers.nips.cc/paper/5866-pointer-networks.pdf
[44] 格雷夫斯,亚历克斯,等。“使用具有动态外部存储器的神经网络的混合计算”。自然(2016)。[pdf](里程碑,把以上论文的想法整合了起来)
地址:
https : //www.dropbox.com/s/0a40xi702grx3dq/2016-graves.pdf
2.6深度强化学习
[45] Mnih,Volodymyr,等。“深入强化学习,玩雅典娜”。arXiv预印本arXiv:1312.5602(2013)。[pdf])(第一个以深度强化学习为题的论文)
地址:
http : //arxiv.org/pdf/1312.5602.pdf
[46] Mnih,Volodymyr等人 “通过深入强化学习来控制人的层面” Nature 518.7540(2015):529-533。[pdf](里程碑)
地址:
https : //storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Pa.p.pdf
[47] 王子瑜,Nando de Freitas和Marc Lanctot。“为深入强化学习而决定网络架构” arXiv预印本arXiv:1511.06581(2015)。[pdf](ICLR最佳论文,很棒的想法)
地址:
http : //arxiv.org/pdf/1511.06581
[48] Mnih,Volodymyr等。“深度强化学习的异步方法”。arXiv预印本arXiv:1602.01783(2016)。[pdf](前沿方法)
地址:
http : //arxiv.org/pdf/1602.01783
[49] Lillicrap,Timothy P.等。“强化学习的持续控制” arXiv预印本arXiv:1509.02971(2015)。(DDPG)
地址:
http : //arxiv.org/pdf/1509.02971
顾史祥等[50] “基于模型加速的持续深度Q学习” arXiv预印本arXiv:1603.00748(2016)。[pdf](NAF)
地址:
http : //arxiv.org/pdf/1603.00748
舒尔曼,约翰等人[51] “信任区域政策优化” CoRR,abs / 1502.05477(2015)。[pdf](TRPO)
地址:
http : //www.jmlr.org/proceedings/papers/v37/schulman15.pdf
[52] 银,大卫,等人。“用深度神经网络和树搜索来掌握Go的游戏。” Nature 529.7587(2016):484-489。[pdf](AlphaGo)
地址:
http : //willamette.edu/~levenick/cs448/goNature.pdf
2.7深度迁移学习/终生学习/强化学习
[53] Bossio,Yoshua。“深入学习无监督和转移学习的表现” ICML Unsupervised and Transfer Learning 27(2012):17-36。(这是一个教程)
地址:
http : //www.jmlr.org/proceedings/papers/v27/bengio12a/bengio12a.pdf
[54] 白银丹尼尔,杨强,李良好。“终身机器学习系统:超越学习算法”。AAAI春季研讨会:终身机器学习。(pdf)(对终生学习的简单讨论)
地址:
http : //citeseerx.ist.psu.edu/viewdoc/download? doi=10.1.1.696.7800&rep=rep1&type= pdf
[55] Hinton,Geoffrey,Oriol Vinyals和Jeff Dean。“在神经网络中提炼知识” arXiv预印本arXiv:1503.02531(2015)。[pdf](大神们的研究)
地址:
http : //arxiv.org/pdf/1503.02531
Rusu,Andrei A.等人[56] “政策蒸馏” arXiv预印本arXiv:1511.06295(2015)。[pdf](RL领域)
地址:
http : //arxiv.org/pdf/1511.06295
[57] Parisotto,Emilio,吉米雷巴和Ruslan Salakhutdinov。“演员 - 模仿:深度多任务和转移强化学习” arXiv预印本arXiv:1511.06342(2015)。[pdf](RL领域)
地址:
http : //arxiv.org/pdf/1511.06342
[58] Rusu,Andrei A.等。“渐进神经网络” arXiv预印本arXiv:1606.04671(2016)。[pdf](杰出研究,很新奇的想法)
地址:
https : //arxiv.org/pdf/1606.04671
2.8 One Shot深度学习
[59] 湖,Brenden M.,Ruslan Salakhutdinov和Joshua B. Tenenbaum。“通过概率程序入门进行人类概念学习” 科学350.6266(2015):1332-1338。[pdf](不含深度学习但值得一读)
地址:
http : //clm.utexas.edu/compjclub/wp-content/uploads/2016/02/lake2015.pdf
[60] 科赫,格雷戈里,理查德泽梅尔和鲁斯兰萨拉胡季诺夫。“连体图像识别的连体神经网络”(2015)[pdf]
地址:
http : //www.cs.utoronto.ca/~gkoch/files/msc-thesis.pdf
[61] 桑托罗,亚当,等。“记忆增强神经网络的一次学习”。arXiv预印本arXiv:1605.06065(2016)。[pdf](one shot学习的基础一步)
地址:
http : //arxiv.org/pdf/1605.06065
[62] Vinyals,Oriol等。“匹配网络进行一次性学习”。arXiv预印本arXiv:1606.04080(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1606.04080
[63] 哈里哈兰,巴拉特和罗斯·吉尔希克。“低射击视觉对象识别”。arXiv预印本arXiv:1606.02819(2016)。[pdf](通向更大规模数据的一步)
地址:
http : //arxiv.org/pdf/1606.02819
3应用
3.1自然语言处理(NLP)
[1] 安托万Bordes,等人。“开放文本语义分析的词义联合学习”。AISTATS(2012)[pdf]
地址:
https ://www.hds.utc.fr/~bordesan/dokuwiki/lib/exe/fetch.php ? id = en%3Apubli & cache = cache& media = en: bordes12aistats.pdf
[2] 米科洛夫,等。“单词和短语的分布式表示及其组合性” ANIPS(2013):3111-3119 [pdf](word2vec)
地址:
http : //papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf
Sutskever等人[3] “”“ANIPS(2014)[pdf]
地址:
http : //papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf
[4] Ankit Kumar,等。“”问我任何事情:自然语言处理的动态记忆网络“ arXiv预印本arXiv:1506.07285(2015)[pdf]
地址:
https : //arxiv.org/abs/1506.07285
[5] Yoon Kim等人 “字符感知的神经语言模型”。NIPS(2015)arXiv预印本arXiv:1508.06615(2015)[pdf]
地址:
https : //arxiv.org/abs/1508.06615
[6] 杰森韦斯顿,等人。“走向完整的问题回答:一套先决条件的玩具任务” arXiv预印本arXiv:1502.05698(2015)[pdf](bAbI任务)
地址:
https : //arxiv.org/abs/1502.05698
[7] 卡尔·莫里茨·赫尔曼(Karl Moritz Hermann)等人 “教学机器阅读和理解”。arXiv预印本arXiv:1506.03340(2015)[pdf](CNN /每日邮报完形填空风格的问题)
地址:
https : //arxiv.org/abs/1506.03340
[8] Alexis Conneau,等。“用于自然语言处理的非常深的卷积网络”。arXiv预印本arXiv:1606.01781(2016)[pdf](文本分类的前沿技术)
地址:
https : //arxiv.org/abs/1606.01781
[9] Armand Joulin等人 “有效的文本分类技巧”。arXiv预印arXiv:1607.01759(2016)[pdf](比前沿技术稍落后,但快很多)
地址:
https : //arxiv.org/abs/1607.01759
3.2物体检测
[1] Szegedy,基督教,亚历山大Toshev和杜米特鲁·埃尔汗。“用于物体检测的深度神经网络” 神经信息处理系统的进展。2013. [pdf]
地址:
http : //papers.nips.cc/paper/5207-deep-neural-networks-for-object-detection.pdf
[2] Girshick,Ross,等。“丰富的功能层次结构,用于精确的对象检测和语义分割。” IEEE计算机视觉和模式识别会议论文集。2014年。[pdf](RCNN)
地址:
http : //www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Girshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf
[3] 他,开明,等。“用于视觉识别的深度卷积网络中的空间金字塔池”。欧洲计算机视觉会议。Springer International Publishing,2014. [pdf](SPPNet)
地址:
http : //arxiv.org/pdf/1406.4729
[4] Girshick,罗斯。“快速r-cnn”。IEEE国际计算机视觉会议论文集。2015年。[pdf]
地址:
https : //pdfs.semanticscholar.org/8f67/64a59f0d17081f2a2a9d06f4ed1cdea1a0ad.pdf
[5] 任少清,等。“更快的R-CNN:利用地区提案网络实现对象的实时检测。
地址:
http : //papers.nips.cc/paper/5638-analysis-of-variational-bayesian-latent-dirichlet-allocation-weaker-sparsity-than-map.pdf
Redmon,Joseph等人[6] “你只看一次:统一的,实时的对象检测。” arXiv预印本arXiv:1506.02640(2015)。[pdf](YOLO,杰出研究,非常具有使用价值)
地址:
http : //homes.cs.washington.edu/~ali/papers/YOLO.pdf
[7] 刘伟,等。“SSD:Single Shot MultiBox检测器”。arXiv预印本arXiv:1512.02325(2015)。[PDF]
地址:
http : //arxiv.org/pdf/1512.02325
戴吉峰等[8] “R-FCN:基于区域的全卷积网络的目标检测”。arXiv预印本arXiv:1605.06409(2016)。[PDF]
地址:
https : //arxiv.org/abs/1605.06409
3.3视觉追踪
[1] 王乃艳,杨延炎。“学习视觉跟踪的深度紧凑图像表示”。神经信息处理系统的进展。(pdf)(第一篇使用深度学习做视觉追踪的论文,DLT Tracker)
地址:
http : //papers.nips.cc/paper/5192-learning-a-deep-compact-image-representation-for-visual-tracking.pdf
[2] 王乃艳,等。“传输丰富的功能层次结构,以实现强大的视觉追踪。” arXiv预印本arXiv:1501.04587(2015)。[pdf](SO-DLT)
地址:
http : //arxiv.org/pdf/1501.04587
[3] 王立军,等。“完全卷积网络的视觉跟踪。” IEEE国际计算机视觉会议论文集。2015年。[pdf](FCNT)
地址:
http : //www.cv-foundation.org/openaccess/content_iccv_2015/papers/Wang_Visual_Tracking_With_ICCV_2015_paper.pdf
[4] David,Sebastian Thrun和Silvio Savarese。“学习使用深度回归网络以100 FPS进行跟踪”。arXiv预印本arXiv:1604.01802(2016)。[pdf](GOTURN,在深度学习方法里算是非常快的,但仍比非深度学习方法慢很多)
地址:
http : //arxiv.org/pdf/1604.01802
[5] Bertinetto,Luca等人。“用于对象跟踪的全卷积连体网络”。arXiv预印本arXiv:1606.09549(2016)。[pdf](SiameseFC,实时物体追踪领域的最新前沿技术)
地址:
https : //arxiv.org/pdf/1606.09549
[6] Martin Danelljan,Andreas Robinson,Fahad Khan,Michael Felsberg。“超越相关滤波器:学习连续卷积算子进行视觉跟踪”。ECCV(2016)[pdf](C-COT)
地址:
http : //www.cvl.isy.liu.se/research/objrec/visualtracking/conttrack/C-COT_ECCV16.pdf
[7] 南贤贤,白衣Mo,朴玄。“在树状结构中建模和传播CNN以进行视觉跟踪”。arXiv预印本arXiv:1608.07242(2016)。[pdf](VOT2016获奖论文,TCNN)
地址:
https : //arxiv.org/pdf/1608.07242
3.4图像标注
[1] Farhadi,阿里,等等。“每张照片都讲述一个故事:从图像生成句子”。在Computer VisionECCV 2010. Springer Berlin Heidelberg:2010年15月29日。[pdf]
地址:
https : //www.cs.cmu.edu/~afarhadi/papers/sentence.pdf
[2] Kulkarni,Girish等人。“宝贝说话:了解和生成图像描述”。在第24届CVPR论文集,2011年。[pdf]
地址:
http : //tamaraberg.com/papers/generation_cvpr11.pdf
[3] Vinyals,Oriol,等。“显示并告诉:一个神经图像标题生成器”。在arXiv预印本arXiv:1411.4555,2014。[pdf]
地址:
https : //arxiv.org/pdf/1411.4555.pdf
[4] 多纳休,杰夫,等。“用于视觉识别和描述的长期递归卷积网络”。在arXiv预印本arXiv:1411.4389,2014。[PDF]
地址:
https : //arxiv.org/pdf/1411.4389.pdf
[5] Karpathy,Andrej和李飞飞。“用于生成图像描述的深度视觉 - 语义对齐”。在arXiv预印本arXiv:1412.2306,2014。[pdf]
地址:
https : //cs.stanford.edu/people/karpathy/cvpr2015.pdf
[6] Karpathy,Andrej,Armand Joulin和Fei Fei F. Li。“双向图像语句映射的深层嵌入”。在神经信息处理系统的进展,2014。[pdf]
地址:
https : //arxiv.org/pdf/1406.5679v1.pdf
[7] 方昊,等。“从字幕到视觉概念,回来”。在arXiv预印本arXiv:1411.4952,2014。[pdf]
地址:
https : //arxiv.org/pdf/1411.4952v3.pdf
[8] 陈新雷,和劳伦斯Zitnick。“学习图像标题生成的经常性视觉表示”。在arXiv预印本arXiv:1411.5654,2014。[pdf]
地址:
https : //arxiv.org/pdf/1411.5654v1.pdf
[9] 毛俊华,等。“使用多模式递归神经网络(m-rnn)的深度字幕”。在arXiv预印本arXiv:1412.6632,2014。[pdf]
地址:
https : //arxiv.org/pdf/1412.6632v5.pdf
Xu,Kelvin等人[10] “显示,参加并讲述:以视觉注意力生成神经影像字幕”。在arXiv预印本arXiv:1502.03044,2015。[pdf]
地址:
https : //arxiv.org/pdf/1502.03044v3.pdf
3.5机器翻译
部分里程碑研究被列入 RNN / Seq-to-Seq 版块。
[1] Luong,Minh-Thang,等。“解决神经机器翻译中罕见的单词问题” arXiv预印本arXiv:1410.8206(2014)。[PDF]
地址:
http : //arxiv.org/pdf/1410.8206
[2] Sennrich等人“具有子字单元的稀有词的神经机器翻译”。在arXiv预印本arXiv:1508.07909,2015。[pdf]
地址:
https : //arxiv.org/pdf/1508.07909.pdf
[3] Luong,Minh-Thang,Hieu Pham和Christopher D. Manning。“注重神经机器翻译的有效方法”。arXiv预印本arXiv:1508.04025(2015)。[PDF]
地址:
http : //arxiv.org/pdf/1508.04025
[4] Chung,et al。“神经机器翻译没有显式分割的字符级解码器”。在arXiv预印本arXiv:1603.06147,2016。[pdf]
地址:
https : //arxiv.org/pdf/1603.06147.pdf
[5] 李,等。“全面的字符级神经机器翻译没有明确的分割”。在arXiv预印本arXiv:1610.03017,2016。[pdf]
地址:
https : //arxiv.org/pdf/1610.03017.pdf
[6] Wu,Schuster,Chen,Le,et al。“Google的神经机器翻译系统:缩小人与机器翻译之间的差距”。在arXiv预印本arXiv:1609.08144v2,2016。[pdf](里程碑)
地址:
https : //arxiv.org/pdf/1609.08144v2.pdf
3.6机器人
[1] Koutník,Jan,等人。“发展基于视觉强化学习的大规模神经网络”。遗传与进化计算第15届年会论文集。ACM,2013. [pdf]
地址:
http : //repository.supsi.ch/4550/1/koutnik2013gecco.pdf
[2] 莱文,谢尔盖,等。“深度视觉运动政策的端到端培训”。机器学习研究杂志17.39(2016):1-40。[PDF]
地址:
http : //www.jmlr.org/papers/volume17/15-522/15-522.pdf
[3] 平托,Lerrel和Abhinav Gupta。“超越自我监督:学习从50k机器人到700机器人小时的掌握。”arXiv预印本arXiv:1509.06825(2015)。[PDF]
地址:
http : //arxiv.org/pdf/1509.06825
[4] 莱文,谢尔盖,等。“通过深度学习和大规模数据采集学习机器人手眼协调学习”。arXiv预印本arXiv:1603.02199(2016)。[PDF]
地址:
http : //arxiv.org/pdf/1603.02199
[5] 朱玉科,等。“使用深度增强学习的室内场景中的目标驱动视觉导航” arXiv预印本arXiv:1609.05143(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1609.05143
[6] Yahya,阿里,等。“分布式异步制导搜索的集体机器人强化学习” arXiv预印本arXiv:1610.00673(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1610.00673
[7] 顾士祥等。“机器人操纵的深度强化学习”。arXiv预印本arXiv:1610.00633(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1610.00633
[8] A Rusu,M Vecerik,Thomas Rothrl,N Heess,R Pascanu,R Hadsell。“Sim-to-Real机器人学习像素逐步网络。arXiv预印本arXiv:1610.04286(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1610.04286.pdf
[9] Mirowski,Piotr等人。“在复杂的环境中学习导航” arXiv预印本arXiv:1611.03673(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1611.03673
3.7艺术
[1] Mordvintsev,亚历山大; 奥拉,克里斯托弗; Tyka,Mike(2015)。“入门主义:深入神经网络”。Google Research。[html](深度梦)
地址:
https : //research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html
[2] Gatys,Leon A.,Alexander Ecker和Matthias Bethge。“艺术风格的神经算法” arXiv预印本arXiv:1508.06576(2015)。[pdf](杰出研究,迄今最成功的方法)
地址:
http : //arxiv.org/pdf/1508.06576
[3] 朱俊彦,等。“对自然图像流形的生成式视觉操纵” 欧洲计算机视觉会议。Springer International Publishing,2016. [pdf](iGAN)
地址:
https : //arxiv.org/pdf/1609.03552
[4] Champandard,Alex J.“语义风格转换和把两位涂鸦变成精美的艺术品”。arXiv预印本arXiv:1603.01768(2016)。[pdf](神经涂鸦)
地址:
http : //arxiv.org/pdf/1603.01768
[5] 张,理查德,菲利普伊索拉和阿列克谢埃弗罗斯。“彩色图像着色” arXiv预印本arXiv:1603.08511(2016)。[PDF]
地址:
http : //arxiv.org/pdf/1603.08511
[6] 约翰逊,贾斯汀,亚历山大阿拉希和李飞飞。“实时风格转换和超分辨率的感知损失”。arXiv预印本arXiv:1603.08155(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1603.08155.pdf
[7] 文森特·杜穆林,乔纳森·舒伦斯和曼努阿斯·库德鲁。“学习艺术风格的代表” arXiv预印本arXiv:1610.07629(2016)。[PDF]
[8] Gatys,Leon和Ecker等人“控制感觉因素在神经风格转移”。arXiv预印本arXiv:1611.07865(2016)。[pdf](空间位置,颜色信息和空间尺度上的控制风格转移)
[9] Ulyanov,德米特里和列别捷夫,瓦迪姆,等。“纹理网络:纹理和风格化图像的前馈合成”。arXiv预印本arXiv:1603.03417(2016)。[pdf](纹理生成和风格变化)
3.8目标分割对象分割
[1] J. Long,E. Shelhamer和T. Darrell,“完全卷积网络语义分割”,CVPR,2015。[pdf]
地址:
https : //arxiv.org/pdf/1411.4038v2.pdf
[2] L.-C. 陈,帕潘德里欧,科克金诺斯,K.墨菲和AL尤伊尔。“深度卷积网和完全连接的crfs的语义图像分割”。在ICLR,2015。[pdf]
地址:
https : //arxiv.org/pdf/1606.00915v1.pdf
[3] Pinheiro,PO,Collobert,R.,Dollar,P。“学习分割候选对象”。在:NIPS。2015年。[pdf]
地址:
https : //arxiv.org/pdf/1506.06204v2.pdf
[4] Dai,J.,He,K.,Sun,J。“通过多任务网络级联的实例感知语义分割”。在CVPR。2016 [pdf]
地址:
https : //arxiv.org/pdf/1512.04412v1.pdf
[5] Dai,J.,He,K.,Sun,J。“实例敏感全卷积网络”。arXiv预印本arXiv:1603.08678(2016)。[PDF]
地址:
https : //arxiv.org/pdf/1603.08678v1.pdf
↓ 点击阅读原文,进入【全球人工智能学院]