从全局到枝干,从经典到前沿,从理论到应用,还有最新的研究......,所有你不需要的需要的,现在不需要的未来需要的,你不需要的周边小伙伴需要的......反正全都在这了。拿走不谢,就在AI科技大本营。
整理| AI科技大本营(rgznai100)
参考 - https://zhuanlan.zhihu.com/p/23080129
对于大多数想上手深度学习的小伙伴来说,“我应当从那篇论文开始读起?”
它让大家对整个深度学习领域及其个枝干都能有一个相对完整的理解。
这份阅读列表的组织原则是这样的:
从全局到枝干:从综述类,全局性的文章到细分领域的具体论文。
从经典到最前沿:每个话题的文章都是按时间顺序来排的,可以清晰给出每个方向的发展脉络。
从通用理论到具体应用:有些论文是针对深度学习通用理论的,有些论文章则针对具体的应用领域。
专注于最先进的研究:收集有许多最新论文,保证阅读列表的时效性。
当然,这里的每个话题都只选几篇最具代表性的论文,深入研究的话,还需要更进一步的阅读。
基于这些论文的影响力,你会发现很多新近发表的文章也值得一读。此外,这份阅读列表在原文页面会不断更新,值得你时时备查。
https://github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap
1.0书
[0] 深度学习圣经★★★★★
本吉奥,Yoshua,Ian J. Goodfellow和Aaron Courville。“深入学习”。麻省理工学院出版社 (2015年)。
https://github.com/HFTrader/DeepLearningBook/raw/master/DeepLearningBook.pdf
1.1报告
[1]三巨头报告★★★★★
LeCun,Yann,Yoshua Bengio和Geoffrey Hinton。“深入学习”。Nature 521.7553(2015):436-444。
http://www.cs.toronto.edu/%7Ehinton/absps/NatureDeepReview.pdf
1.2深度信念网络(DBN)
[2]深度学习前夜的里程碑
Hinton,Geoffrey E.,Simon Osindero和Yee-Whye Teh。“深度信念网的快速学习算法”。神经计算18.7(2006):1527-1554。
http://www.cs.toronto.edu/%7Ehinton/absps/ncfast.pdf
[3]展示深度学习前景的里程碑
Hinton,Geoffrey E.和Ruslan R. Salakhutdinov。“用神经网络降低数据的维数”。科学313.5786(2006):504-507。
http://www.cs.toronto.edu/%7Ehinton/science.pdf
1.3 ImageNet革命(深度学习大爆炸)
[4] AlexNet的深度学习突破
Krizhevsky,Alex,Ilya Sutskever和Geoffrey E. Hinton。“具有深卷积神经网络的Imagenet分类”。神经信息处理系统的进展。2012。
http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
[5] VGGNet深度神经网络出现
西蒙妮,凯伦和安德鲁Zisserman。“用于大规模图像识别的非常深的卷积网络”。arXiv preprint arXiv:1409.1556(2014)。
https://arxiv.org/pdf/1409.1556.pdf
[6] GoogLeNet
Szegedy,Christian,et al。“卷入更深入”。IEEE计算机视觉与模式识别会议论文集。2015年。
http://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf
[7] ResNet极深度神经网络,CVPR最佳论文
他,凯明,等 “图像识别的深度残差学习”。arXiv preprint arXiv:1512.03385(2015)。
https://arxiv.org/pdf/1512.03385.pdf
1.4语音识别革命
[8]语音识别突破
Hinton,Geoffrey,et al。“语音识别中声学建模的深层神经网络:四个研究小组的共同观点”。IEEE信号处理杂志29.6(2012):82-97。
http://cs224d.stanford.edu/papers/maas_paper.pdf
[9] RNN论文
格雷夫斯,亚历克斯,阿卜杜勒 - 拉赫曼·穆罕默德和杰弗里·亨顿。“具有深层次神经网络的语音识别”。2013 IEEE国际声学,语音和信号处理会议。IEEE,2013。
http://arxiv.org/pdf/1303.5778.pdf
[10]端对端RNN语音识别
坟墓,亚历克斯和Navdeep Jaitly。“用循环神经网络实现终端语音识别”。ICML。卷。2014年。
http://www.jmlr.org/proceedings/papers/v32/graves14.pdf
[11] Google语音识别系统论文
Sak,Haşim,et al。“用于语音识别的快速准确的神经网络声学模型”。arXiv preprint arXiv:1507.06947(2015)。
http://arxiv.org/pdf/1507.06947
[12]百度语音识别系统论文
Amodei,Dario等 “深度讲话2:英文和普通话的端对端语音识别”。arXiv preprint arXiv:1512.02595(2015)。
https://arxiv.org/pdf/1512.02595.pdf
[13]来自微软的当下最先进的语音识别论文
W.熊,J. Droppo,X. Huang,F. Seide,M. Seltzer,A. Stolcke,D. Yu,G. Zweig“Achieving Human Parity in Conversational Speech Recognition”。arXiv preprint arXiv:1610.05256(2016)。
https://arxiv.org/pdf/1610.05256v1
读完上面这些论文,将对你深度学习的历史,深度学习模型(CNN,RNN,LSTM等)基本的架构有一个基本认识,并理解能学习深度的英文如何解决图像及语音识别问题的接下来。的将论文带你深入理解深度学习方法,深度学习在前沿领域的不同应用。根据自己的兴趣和研究方向选择阅读即可:
深度学习方法
2.1模型
辍学
Hinton,Geoffrey E.,et al。“通过防止特征检测器的共同适应来改善神经网络”。arXiv preprint arXiv:1207.0580(2012)。
https://arxiv.org/pdf/1207.0580.pdf
[15]过拟合
Srivastava,Nitish,et al。“辍学:一种防止神经网络过度配合的简单方法”。机器学习研究杂志15.1(2014):1929-1958。
http://www.jmlr.org/papers/volume15/srivastava14a.old/source/srivastava14a.pdf
[16]批次归化 - - 2015年杰出成果
Ioffe,Sergey和Christian Szegedy。“批量归一化:通过减少内部协变量来加速深入网络训练。arXiv preprint arXiv:1502.03167(2015)。
http://arxiv.org/pdf/1502.03167
[17] Batch归一化的升级
Ba,Jimmy Lei,Jamie Ryan Kiros和Geoffrey E. Hinton。“层规范化”。arXiv preprint arXiv:1607.06450(2016)。
https://arxiv.org/pdf/1607.06450.pdf
[18]快速训练新模型
Courbariaux,Matthieu,et al。“二进制神经网络:训练神经网络的权重和激活约束为+ 1或-1”。
https://pdfs.semanticscholar.org/f832/b16cb367802609d91d400085eb87d630212a.pdf
[19]训练方法创新
Jaderberg,Max,et al。“使用合成梯度解耦神经接口”。arXiv preprint arXiv:1608.05343(2016)。
https://arxiv.org/pdf/1608.05343
[20]修改预训练网络以降低训练耗时
陈天奇,Ian Goodfellow和Jonathon Shlens。“Net2net:通过知识转移加速学习”。arXiv preprint arXiv:1511.05641(2015)。
https://arxiv.org/abs/1511.05641
[21]修改预训练网络以降低训练耗时
魏涛等 “网络形态”。arXiv preprint arXiv:1603.01670(2016)。
https://arxiv.org/abs/1603.01670
2.2优化
动力优化器
Sutskever,Ilya,et al。“深入学习初始化和动力的重要性”。ICML(3)28(2013):1139-1147。
http://www.jmlr.org/proceedings/papers/v28/sutskever13.pdf
[23]可能是当前使用最多的随机优化
金马,迪德里克和吉米·巴。“亚当:一种随机优化的方法”。arXiv preprint arXiv:1412.6980(2014)。
http://arxiv.org/pdf/1412.6980
神经优化器
Andrychowicz,Marcin,et al。“通过梯度下降学习学习梯度下降”。arXiv preprint arXiv:1606.04474(2016)。
https://arxiv.org/pdf/1606.04474
[25] ICLR最佳论文,让神经网络运行更快的新方向★★★★★
韩,宋,惠子毛,William J. Dally。“深压缩:用修剪,训练量化和哈夫曼编码压缩深层神经网络。CoRR,abs / 1510.00149 2(2015)。
https://pdfs.semanticscholar.org/5b6c/9dda1d88095fa4aac1507348e498a1f2e863.pdf
[26]优化神经网络的另一个新方向
Iandola,Forrest N.,et al。“SqueezeNet:AlexNet级精度,参数减少50倍,模型尺寸小于1MB。” arXiv preprint arXiv:1602.07360(2016)。
http://arxiv.org/pdf/1602.07360
2.3无监督学习/深度生成式模型
[27] Google脑找猫的里程碑论文,吴恩达
Le,Quoc V.“构建使用大规模无监督学习的高级特征”。2013 IEEE国际声学,语音和信号处理会议。IEEE,2013。
http://arxiv.org/pdf/1112.6209.pdf
[28]变分自编码机(VAE)
Kingma,Diederik P.和Max Welling。“自动编码变体贝叶斯”。arXiv preprint arXiv:1312.6114(2013)。
http://arxiv.org/pdf/1312.6114
[29]生成式对抗网络(GAN)
Goodfellow,Ian,et al。“生成对抗网”。神经信息处理系统进展。2014年
http://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf
[30]解卷积生成式对抗网络(DCGAN)
Radford,Alec,Luke Metz和Soumith Chintala。“无监督的表示学习与深卷积生成对抗网络”。arXiv preprint arXiv:1511.06434(2015)。
http://arxiv.org/pdf/1511.06434
[31]注意机制的变分自编码机
Gregor,Karol等 “DRAW:用于图像生成的经常性神经网络”。arXiv preprint arXiv:1502.04623(2015)。
http://jmlr.org/proceedings/papers/v37/gregor15.pdf
[32] PixelRNN
Oord,Aaron van den,Nal Kalchbrenner和Koray Kavukcuoglu。“像素复现神经网络”。arXiv preprint arXiv:1601.06759(2016)。
http://arxiv.org/pdf/1601.06759
[33] PixelCNN
Oord,Aaron van den,et al。“使用PixelCNN解码器的条件图像生成”。arXiv preprint arXiv:1606.05328(2016)。
https://arxiv.org/pdf/1606.05328
2.4 RNN /序列到序列模型
[34] RNN的生成式序列,LSTM
格雷夫斯,亚历克斯 “用循环神经网络生成序列”。arXiv preprint arXiv:1308.0850(2013)。
http://arxiv.org/pdf/1308.0850
[35]第一份序列到序列论文
Cho,Kyunghyun,et al。“使用RNN编码器解码器学习短语表示法进行统计机器翻译”。arXiv preprint arXiv:1406.1078(2014)。
http://arxiv.org/pdf/1406.1078
[36]神经网络的序列到序列学习
Sutskever,Ilya,Oriol Vinyals和Quoc V. Le。“使用神经网络进行序列学习”。神经信息处理系统的进展。2014年
http://papers.nips.cc/paper/5346-information-based-learning-by-agents-in-unbounded-state-spaces.pdf
[37]神经机器翻译
Bahdanau,Dzmitry,KyungHyun Cho和Yoshua Bengio。“通过联合学习来平移和翻译神经机器翻译”。arXiv preprint arXiv:1409.0473(2014)。
https://arxiv.org/pdf/1409.0473v7.pdf
[38]序列到序列Chatbot
Vinyals,Oriol和Quoc Le。“神经会话模式”。arXiv preprint arXiv:1506.05869(2015)。
http://arxiv.org/pdf/1506.05869.pdf%20(http://arxiv.org/pdf/1506.05869.pdf
2.5神经网络图灵机
未来计算机的基本原型
格雷夫斯,亚历克斯,格雷格·韦恩和伊沃·丹尼谢卡。“神经图灵机”。arXiv preprint arXiv:1410.5401(2014)。
http://arxiv.org/pdf/1410.5401.pdf
[40]强化学习神经图灵机
Zaremba,Wojciech和Ilya Sutskever。“加固学习神经图灵机”。arXiv preprint arXiv:1505.00521 362(2015)。
https://pdfs.semanticscholar.org/f10e/071292d593fef939e6ef4a59baf0bb3a6c2b.pdf
记忆网络
韦斯顿,杰森,苏米特·肖普拉和安托万·博尔德。“内存网络”。arXiv preprint arXiv:1410.3916(2014)。
http://arxiv.org/pdf/1410.3916
端对端记忆网络
Sukhbaatar,Sainbayar,Jason Weston和Rob Fergus。“端到端内存网络”。神经信息处理系统的进展。2015年。
http://papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf
指针网络
Vinyals,Oriol,Meire Fortunato和Navdeep Jaitly。“指针网络”。神经信息处理系统进展。2015年。
http://papers.nips.cc/paper/5866-pointer-networks.pdf
[44]整合神经网络图灵机概念的里程碑论文
Graves,Alex,et al。“混合计算使用神经网络与动态外部存储器”。自然(2016)。
https://www.dropbox.com/s/0a40xi702grx3dq/2016-graves.pdf
2.6深度强化学习
[45]第一篇以深度强化学习为名的论文
Mnih,Volodymyr,et al。“用强化学习锻炼阿塔里”。arXiv preprint arXiv:1312.5602(2013)。
http://arxiv.org/pdf/1312.5602.pdf
[46]里程碑
Mnih,Volodymyr,et al。“通过深层次的强化学习进行人为的控制”。Nature 518.7540(2015):529-533。
https://storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Paper.pdf
[47] ICLR最佳论文
王紫子,南非德弗雷塔斯和马克·兰科特。“深度加强学习的决斗网络架构”。arXiv preprint arXiv:1511.06581(2015)。
http://arxiv.org/pdf/1511.06581
[48]当前最先进的深度强化学习方法
Mnih,Volodymyr,et al。“强化学习的异步方法”。arXiv preprint arXiv:1602.01783(2016)。
http://arxiv.org/pdf/1602.01783
[49] DDPG
Lillicrap,Timothy P.,et al。“强化学习持续控制”。arXiv preprint arXiv:1509.02971(2015)。
http://arxiv.org/pdf/1509.02971
[50] NAF
顾世祥等 “持续深层次的Q-学习与基于模型的加速”。arXiv preprint arXiv:1603.00748(2016)。
http://arxiv.org/pdf/1603.00748
[51] TRPO
舒尔曼,约翰,等 “信托地区政策优化”。CoRR,abs / 1502.05477(2015)。
http://www.jmlr.org/proceedings/papers/v37/schulman15.pdf
[52]阿尔法
银,大卫等 “用深度神经网络和树搜索掌握Go的游戏”。Nature 529.7587(2016):484-489。
http://willamette.edu/%7Elevenick/cs448/goNature.pdf
2.7深度迁移学习/终生学习/强化学习
[53]班加奥教程
本吉奥,雅思。“深入学习无监督和转学习的代表”。ICML无监督和转移学习27(2012):17-36。
http://www.jmlr.org/proceedings/papers/v27/bengio12a/bengio12a.pdf
[54]终生学习的简单讨论
银,丹尼尔·李,强杨,李良浩。“终身学习系统:超越学习算法”。AAAI春季研讨会:终身机器学习。2013。
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.696.7800&rep=rep1&type=pdf
[55] Hinton,Jeff Dean大神研究
Hinton,Geoffrey,Oriol Vinyals和Jeff Dean。“在神经网络中挖掘知识”。arXiv preprint arXiv:1503.02531(2015)。
http://arxiv.org/pdf/1503.02531
[56]强化学习策略
Rusu,Andrei A.,et al。“政策蒸馏”。arXiv preprint arXiv:1511.06295(2015)。
http://arxiv.org/pdf/1511.06295
[57]多任务深度迁移强化学习
Parisotto,Emilio,Jimmy Lei Ba和Ruslan Salakhutdinov。“演员模仿:深度多任务和转移强化学习”。arXiv preprint arXiv:1511.06342(2015)。
http://arxiv.org/pdf/1511.06342
累进式神经网络
Rusu,Andrei A.,et al。“进步神经网络”。arXiv preprint arXiv:1606.04671(2016)。
https://arxiv.org/pdf/1606.04671
2.8一次性深度学习
[59]不涉及深度学习,但值得一读
Lake,Brenden M.,Ruslan Salakhutdinov和Joshua B. Tenenbaum。“通过概率计划诱导进行人文概念学习”。科学350.6266(2015):1332-1338。
http://clm.utexas.edu/compjclub/wp-content/uploads/2016/02/lake2015.pdf
[60]一次性图像识别
科赫,格雷戈里,理查德·泽梅尔和鲁斯兰·萨拉库丁诺夫。“暹粒神经网络一次图像识别”(2015)
http://www.cs.utoronto.ca/%7Egkoch/files/msc-thesis.pdf
[61]一次性学习基础
Santoro,Adam,et al。“一次性学习与记忆增强神经网络”。arXiv preprint arXiv:1605.06065(2016)。
http://arxiv.org/pdf/1605.06065
[62]一次性学习网络
Vinyals,Oriol等人 “匹配网络一次学习”。arXiv preprint arXiv:1606.04080(2016)。
https://arxiv.org/pdf/1606.04080
[63]大型数据
Hariharan,Bharath和Ross Girshick。“低射视觉对象识别”。arXiv preprint arXiv:1606.02819(2016)。
http://arxiv.org/pdf/1606.02819
3.1自然语言处理(NLP)
[1]
Antoine Bordes,et al。“联合学习词语和开放语义分析的含义表示”。AISTATS(2012)
https://www.hds.utc.fr/%7Ebordesan/dokuwiki/lib/exe/fetch.php?id=en%3Apubli&cache=cache&media=en:bordes12aistats.pdf
[2]
word2vec
Mikolov等人 “分布式表达的单词和短语及其组成”。ANIPS(2013):3111-3119
http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf
[3]
Sutskever等人 “使用神经网络进行序列学习”。ANIPS(2014)
http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf
[4]
Ankit Kumar等人 “Ask Me Anything:Dynamic Memory Networks for Natural Language Processing”。arXiv preprint arXiv:1506.07285(2015)
https://arxiv.org/abs/1506.07285
[5]
Yoon Kim,et al。“字符意识神经语言模型”。NIPS(2015)arXiv preprint arXiv:1508.06615(2015)
https://arxiv.org/abs/1508.06615
[6] bAbI任务
Jason Weston等人 “完成AI问题回答:一套先决条件玩具任务”。arXiv preprint arXiv:1502.05698(2015)
https://arxiv.org/abs/1502.05698
[7] CNN / DailyMail风格对比
Karl Moritz Hermann,et al。“阅读和理解的教学机器”。arXiv preprint arXiv:1506.03340(2015)
https://arxiv.org/abs/1506.03340
[8]当前最先进的文本分类
Alexis Conneau等人 “用于自然语言处理的非常深的卷积网络”。arXiv preprint arXiv:1606.01781(2016)
https://arxiv.org/abs/1606.01781
[9]稍等于最先进方案,但速度快很多
Armand Joulin等人 “用于高效文本分类的技巧”。arXiv preprint arXiv:1607.01759(2016)
https://arxiv.org/abs/1607.01759
3.2目标检测
[1]
塞格德,基督教,亚历山大·托舍夫和杜米特·埃尔汗。“用于物体检测的深层神经网络”。神经信息处理系统进展。2013。
http://papers.nips.cc/paper/5207-deep-neural-networks-for-object-detection.pdf
[2] RCNN
Girshick,Ross,et al。“丰富的功能层次结构,用于准确的对象检测和语义分割”。IEEE计算机视觉与模式识别会议论文集。2014年
http://www.cv-foundation.org/openaccess/content_cvpr_2014/papers/Girshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf
[3] SPPNet
他,凯明,等 “空间金字塔汇集在深度卷积网络中进行视觉识别”。欧洲计算机视觉会议。Springer国际出版社,2014。
http://arxiv.org/pdf/1406.4729
[4]
Girshick,Ross。“快速r-cnn”。IEEE国际计算机视觉会议论文集。2015年。
https://pdfs.semanticscholar.org/8f67/64a59f0d17081f2a2a9d06f4ed1cdea1a0ad.pdf
[5]
任少少等 “更快的R-CNN:通过区域提案网络实现实时对象检测”。神经信息处理系统的进展。2015年。
http://papers.nips.cc/paper/5638-analysis-of-variational-bayesian-latent-dirichlet-allocation-weaker-sparsity-than-map.pdf
[6]相当实用的YOLO项目
Redmon,Joseph,et al。“你只看一次:统一的,实时的对象检测。” arXiv preprint arXiv:1506.02640(2015)。
http://homes.cs.washington.edu/%7Eali/papers/YOLO.pdf
[7]
刘伟,等 “SSD:单次多重检测器”。arXiv preprint arXiv:1512.02325(2015)。
http://arxiv.org/pdf/1512.02325
[8]
戴,吉峰等 “R-FCN:通过基于区域的完全卷积网络的对象检测”。arXiv preprint arXiv:1605.06409(2016)。
https://arxiv.org/abs/1605.06409
[9]
他,Gkioxari等人 “Mask R-CNN”arXiv preprint arXiv:1703.06870(2017)。
https://arxiv.org/abs/1703.06870
3.3视觉追踪
[1]第一部分采用深度学习的视觉追踪论文,DLT追踪器
王乃仁,杨妍妍。“学习用于视觉跟踪的深刻紧凑的图像表示”。神经信息处理系统的进展。2013。
http://papers.nips.cc/paper/5192-learning-a-deep-compact-image-representation-for-visual-tracking.pdf
[2] SO-DLT
王乃奈等 “转移丰富的功能层次结构,实现强大的视觉跟踪。” arXiv preprint arXiv:1501.04587(2015)。
http://arxiv.org/pdf/1501.04587
[3] FCNT
王立军等 “具有完全卷积网络的视觉跟踪”。IEEE国际计算机视觉会议论文集。2015年。
http://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Wang_Visual_Tracking_With_ICCV_2015_paper.pdf
[4]跟深度学习一样快的非深度学习方法,GOTURN
大卫,塞巴斯蒂安·苏伦和西尔维奥·萨瓦雷塞。“以100 FPS跟踪深度回归网络”。arXiv preprint arXiv:1604.01802(2016)。
http://arxiv.org/pdf/1604.01802
[5]新的最先进的实时目标追踪方案SiameseFC
Bertinetto,Luca,et al。“全卷积暹罗网络对象跟踪”。arXiv preprint arXiv:1606.09549(2016)。
https://arxiv.org/pdf/1606.09549
[6] C-COT
Martin Danelljan,Andreas Robinson,Fahad Khan,Michael Felsberg。“超越相关滤波器:学习连续卷积运算符进行视觉跟踪”。ECCV(2016)
http://www.cvl.isy.liu.se/research/objrec/visualtracking/conttrack/C-COT_ECCV16.pdf
[7] VOT2016大赛冠军TCNN
Nam,Hyeonseob,Mooyeol Baek和Bohyung Han。“用于视觉跟踪的树结构中的建模和传播CNN”。arXiv preprint arXiv:1608.07242(2016)。
https://arxiv.org/pdf/1608.07242
3.4图像标注
[1]
法哈迪,阿里等人。“每张照片讲述一个故事:从图像生成句子”。在计算机VisionECCV 201匹配0. Sp匹配响铃柏林海德堡:2010年15-29。
https://www.cs.cmu.edu/%7Eafarhadi/papers/sentence.pdf
[2]
Kulkarni,Girish,et al。“宝贝说话:了解和生成图像描述”。2011年第24届CVPR会议录。
http://tamaraberg.com/papers/generation_cvpr11.pdf
[3]
Vinyals,Oriol等人 “显示和告诉:神经图像字幕发生器”。在ArXiv预印版中,版本:1411.4555,2014。
https://arxiv.org/pdf/1411.4555.pdf
[4] RNN视觉识别与标注
Donahue,Jeff,et al。“用于视觉识别和描述的长期复现卷积网络”。在ArXiv的预印版中,ArXiv:1411.4389,2014。
https://arxiv.org/pdf/1411.4389.pdf
[5]李飞飞及高徒Andrej Karpathy
卡尔佩斯,安德烈和李飞飞。“用于生成图像描述的深度视觉语义对齐”。在ArXiv预印版中,2014年1412.2306。
https://cs.stanford.edu/people/karpathy/cvpr2015.pdf
[6]李飞飞及高徒Andrej Karpathy
Karpathy,Andrej,Armand Joulin和Fei Fei F. Li。“用于双向图像语句映射的深度片段嵌入”。2014年神经信息处理系统进展。
https://arxiv.org/pdf/1406.5679v1.pdf
[7]
方昊等 “从字幕到视觉概念,回来”。在ArXiv的预印版中,ArXiv:1411.4952,2014。
https://arxiv.org/pdf/1411.4952v3.pdf
[8]
陈新磊和C.劳伦斯·齐特尼克。“学习图像字幕生成的复现视觉表示”。在ArXiv预印版中,ArXiv:1411.5654,2014。
https://arxiv.org/pdf/1411.5654v1.pdf
[9]
毛,俊华等 “多角度复现神经网络(m-rnn)的深刻字幕”。在arXiv预印版中,版本:1412.6632,2014。
https://arxiv.org/pdf/1412.6632v5.pdf
[10]
Xu,Kelvin,et al。“显示,参加并告诉:视觉注意的神经图像字幕生成”。在arXiv预印版中,2015年第1502.03044期。
https://arxiv.org/pdf/1502.03044v3.pdf
3.5机器翻译
本话题的部分里程碑论文列在2.4“RNN /序列到序列模型”话题下。
[1]
Luong,Minh-Thang,et al。“解决神经机器翻译中罕见的单词问题”。arXiv preprint arXiv:1410.8206(2014)。
http://arxiv.org/pdf/1410.8206
[2]
Sennrich等人 “词语单词的神经机器翻译”。在ArXiv预印本版:1508.07909,2015。
https://arxiv.org/pdf/1508.07909.pdf
[3]
罗恩,闵-ang,ie u am,,克里斯托弗·丹宁。“以注意为基础的神经机器翻译的有效方法”。arXiv preprint arXiv:1508.04025(2015)。
http://arxiv.org/pdf/1508.04025
[4]
Chung等 “没有明确分割神经机器翻译的字符级解码器”。在ArXiv预印本arXiv:1603.06147,2016。
https://arxiv.org/pdf/1603.06147.pdf
[5]
Lee,et al。“完全字符级神经机器翻译无明确分割”。在ArXiv预印版中,版本:1610.03017,2016。
https://arxiv.org/pdf/1610.03017.pdf
[6]里程碑
Wu,Schuster,Chen,Le,et al。“Google的神经机器翻译系统:弥合人与机器翻译之间的差距”。在ArXiv预印版中,版本:1609.08144v2,2016。
https://arxiv.org/pdf/1609.08144v2.pdf
3.6机器人
[1]
Koutník,Jan,et al。“演进大规模神经网络,以视觉为基础的强化学习”。第十五届遗传与进化计算年会论文集。ACM,2013。
http://repository.supsi.ch/4550/1/koutnik2013gecco.pdf
[2]
Levine,Sergey,et al。“深度视觉运动政策的端到端培训”。机器学习研究杂志17.39(2016):1-40。
http://www.jmlr.org/papers/volume17/15-522/15-522.pdf
[3]
平托,Lerrel和Abhinav Gupta。“取代自我监督:学习掌握从5万次的尝试和700个机器人的时间。” arXiv preprint arXiv:1509.06825(2015)。
http://arxiv.org/pdf/1509.06825
[4]
Levine,Sergey,et al。“深度学习和大规模数据采集的机器人掌握学习手眼协调”。arXiv preprint arXiv:1603.02199(2016)。
http://arxiv.org/pdf/1603.02199
[5]
朱玉科等 “使用深度加固学习的室内场景中的目标驱动视觉导航”。arXiv preprint arXiv:1609.05143(2016)。
https://arxiv.org/pdf/1609.05143
[6]
Yahya,Ali,et al。“集体机器人加强学习与分布式异步引导政策搜索”。arXiv preprint arXiv:1610.00673(2016)。
https://arxiv.org/pdf/1610.00673
[7]
顾世祥等 “机器人操纵的深加强学习”。arXiv preprint arXiv:1610.00633(2016)。
https://arxiv.org/pdf/1610.00633
[8]
Rusu,M Vecerik,ThomasRothörl,N Heess,R Pascanu,R Hadsell。“Sim-to-Real Robot Learning from Pixels with Progressive Nets”。arXiv preprint arXiv:1610.04286(2016)。
https://arxiv.org/pdf/1610.04286.pdf
[9]
Mirowski,Piotr,et al。“学习在复杂的环境中导航”。arXiv preprint arXiv:1611.03673(2016)。
https://arxiv.org/pdf/1611.03673
3.7艺术
[1] Google Deep Dream
Mordvintsev,亚历山大 奥拉,克里斯托弗 Tyka,Mike(2015)。“实现主义:深入神经网络”。Google研究。
https://research.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html
[2]当前最成功的艺术风格迁移方案,Prisma
Gatys,Leon A.,Alexander S. Ecker和Matthias Bethge。“艺术风格的神经算法”。arXiv preprint arXiv:1508.06576(2015)。
http://arxiv.org/pdf/1508.06576
[3] IgA肾病★★★,流量,
朱俊仁等 “自然图像歧管的生成视觉操作”。欧洲计算机视觉会议。斯普林格国际出版社,2016年。
https://arxiv.org/pdf/1609.03552
[4]神经涂鸦
Champandard,Alex J.“语义风格转移和将两位涂鸦转化为美术作品”。arXiv preprint arXiv:1603.01768(2016)。
http://arxiv.org/pdf/1603.01768
[5]
张,理查德,菲利普·伊索拉和阿列克谢·埃夫罗斯。“彩色图像着色”。arXiv preprint arXiv:1603.08511(2016)。
http://arxiv.org/pdf/1603.08511
[6]超分辨率,李飞飞
约翰逊,贾斯汀,亚历山大·阿拉希和李飞飞。“实时风格转移和超分辨率的感知损失”。arXiv preprint arXiv:1603.08155(2016)。
https://arxiv.org/pdf/1603.08155.pdf
[7]
Vincent Dumoulin,Jonathon Shlens和Manjunath Kudlur。“艺术风格的学术代表”。arXiv preprint arXiv:1610.07629(2016)。
https://arxiv.org/pdf/1610.07629v1.pdf
[8]基空间位置,色彩信息与空间尺度的风格迁移
Gatys,Leon和Ecker等人,“Controling Perceptual Factors in Neural Style Transfer”。arXiv preprint arXiv:1611.07865(2016)。
https://arxiv.org/pdf/1611.07865.pdf
[9]纹理生成与风格迁移
Ulyanov,Dmitry和Lebedev,Vadim,et al。“纹理网络:纹理和风格化图像的前馈合成”。arXiv preprint arXiv:1603.03417(2016)。
http://arxiv.org/abs/1603.03417
3.8目标分割
[1]
J.Rong,E.Shehamer,和T.Darrell,“全面卷积网络语义分割”,CVPR,2015。
https://arxiv.org/pdf/1411.4038v2.pdf
[2]
L.-C. Chen,G.Pandandreou,I.Kokkinos,K.Mullphy和ALYuille。“具有深卷积网和完全连接的crfs的语义图像分割”。在ICLR,2015年。
https://arxiv.org/pdf/1606.00915v1.pdf
[3]
Pinheiro,PO,Collobert,R.,Dollar,P.“学习分割对象候选人”。在:NIPS。2015年。
https://arxiv.org/pdf/1506.06204v2.pdf
[4]
Dai,J.,He,K.,Sun,J.“Instance-aware semantic segmentation via multi-task network cascades”。在CVPR中。2016
https://arxiv.org/pdf/1512.04412v1.pdf
[5]
Dai,J.,He,K.,Sun,J.“Instance-sensitive Fully Convolutional Networks”。arXiv preprint arXiv:1603.08678(2016)。
https://arxiv.org/pdf/1603.08678v1.pdf
下载链接:https://pan.baidu.com/s/1pLFgO11
产业智能官
子曰:“君子和而不同,小人同而不和。” 《论语·子路》
云计算、大数据、物联网、区块链和 人工智能,像君子一般融合,一起体现科技就是生产力。
如果说上一次哥伦布地理大发现,拓展的是人类的物理空间。那么这一次地理大发现,拓展的就是人们的数字空间。
在数学空间,建立新的商业文明,从而发现新的创富模式,为人类社会带来新的财富空间。
云计算,大数据、物联网和区块链,是进入这个数字空间的船,而人工智能就是那船上的帆,哥伦布之帆!
人工智能通过三个方式激发经济增长:
创造虚拟劳动力,承担需要适应性和敏捷性的复杂任务,即“智能自动化”,以区别于传统的自动化解决方案;
对现有劳动力和实物资产进行有利的补充和提升,提高资本效率;
人工智能的普及,将推动多行业的相关创新,开辟崭新的经济增长空间。
新一代信息技术(云计算、大数据、物联网、区块链和人工智能)的商业化落地进度远不及技术其本身的革新来得迅猛,究其原因,技术供应商(乙方)不明确自己的技术可服务于谁,传统企业机构(甲方)不懂如何有效利用新一代信息技术创新商业模式和提升效率。
“产业智能官”,通过采编对甲、乙方参考价值巨大的云计算、大数据、物联网、区块链和人工智能的论文、研究报告和商业合作项目与案例,面向企业CEO、CDO、CTO和CIO,从而服务新一代信息技术输出者和新一代信息技术消费者。
助力新一代信息技术公司寻找最有价值的潜在传统客户与商业化落地路径,帮助传统企业选择与开发适合自己的新一代信息技术产品和技术方案,消除新一代信息技术公司与传统企业之间的信息不对称,推动云计算、大数据、物联网、区块链和人工智能的商业化浪潮。
给决策制定者和商业领袖的建议:
迎接新一代信息技术,迎接人工智能:无缝整合人类智慧与机器智能,重新评估未来的知识和技能类型;
制定道德规范:切实为人工智能生态系统制定道德准则,并在智能机器的开发过程中确定更加明晰的标准和最佳实践;
重视再分配效应:对人工智能可能带来的冲击做好准备,制定战略帮助面临较高失业风险的人群;
超越自动化,开启新创新模式:利用具有自主学习和自我控制能力的动态机器智能,为企业创造新商机;
开发人工智能型企业所需新能力:员工团队需要积极掌握判断、沟通及创造性思维等人类所特有的重要能力。对于中国企业来说,创造兼具包容性和多样性的文化也非常重要。
产业智能官 AI-CPS
用新一代技术操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能),在商业应用场景中构建状态感知-实时分析-自主决策-精准执行-学习提升的认知计算和机器智能;实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链。
长按上方二维码关注微信公众号 AI-CPS
更多信息回复:案例分析、研究报告、商业模式
云计算、大数据、物联网、区块链、人工智能
本文系“产业智能官”(公众号ID:AI-CPS)收集整理,转载请注明出处!
版权声明:由产业智能官(公众号ID:AI-CPS)推荐的文章,除非确实无法确认,我们都会注明作者和来源。部分文章推送时未能与原作者取得联系。若涉及版权问题,烦请原作者联系我们,与您共同协商解决。联系、投稿邮箱:erp_vip@hotmail.com