神经机器翻译(NMT)的一些重要资源分享

2017 年 9 月 14 日 深度学习与NLP lqfarmer

    关于NNMT一些很好的资源

教程:

·        由Thang Luong编写的NMT教程   -这是一个简短的教程,循序渐进的介绍神经机器翻译的原理。但稍微令人感到失望的是,没有详细记录基础实验的运行和评估情况。当然,解决这些问题很简单,但这确实需要花一点时间。

·         原始的Tensorflow seq2seq教程  -第一个Seq2Seq实验。现在我们讨论的是WMT15 set。

·         tf-seq2seq  (博客地址:这里)

·         Graham Neubig的教程

·         Nematus

·         OpenNMT

·         NeuralMonkey(基于Tensorflow)

有一点很特别:Tensor2Tensor采用新颖的架构,而原始基于RNN / CNN解码/编码架构。它的提出,产生了惊人的收益。因此,使得NNMT有可能成为未来翻译技术发展的趋势。

重要的论文:

·         Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation by Cho Et al. (link) - Kyunghyun Cho发表的,非常创新和非常有智慧的一篇论文,还引入了GRU。

·         Sequence to Sequence Learning with Neural Networks by Ilya Sutskever (link) - 由谷歌的研究人员提出,首次显示NMT系统可以获得与传统的技术相似的效果。

·         Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation (link)

·         Neural Machine Translation by Joint Learning to Align and Translate by Dzmitry Bahdanau (link)  - 提出Attention机制的论文

·         Neural Machine Translation by Min-Thuong Luong (link)

·         Effective Approaches to Attention-based Neural Machine Translation by Min-Thuong Luong (link) – 提出如何基于local Attention去提升Attention效果。

·         Massive Exploration of Neural Machine Translation Architectures by Britz et al (link)

·         Recurrent Convolutional Neural Networks for Discourse Compositionality by Kalchbrenner and Blunsom (link)

重要博客文章/网页:

·         注意机制和增强化的循环神经网络:仅与基于注意力机制的RNN部分相关,但Olah'的文章是非常值得阅读的。

·         斯坦福大学NMT实验室页面:涉及Luong,See和Manning在NMT上的工作。非常有趣看看最近的技术。教程/代码/模型可用。

其他:(未排序)

·         JayPark的Github https://github.com/JayParks/tf-seq2seq

·         https://github.com/ematvey/tensorflow-seq2seq-tutorials

·         https://indico.io/blog/the-good-bad-ugly-of-tensorflow/

·         https://www.reddit.com/r/MachineLearning/comments/43fw8s/simple_seq2seq_example_in_tensorflow/

·         https://r2rt.com/recurrent-neural-networks-in-tensorflow-iii-variable-length-sequences.html

·         http://forums.fast.ai/t/the-wonders-of-the-new-version-of-tensorflow-1-2rc0/3491

·         http://monik.in/a-noobs-guide-to-implementing-rnn-lstm-using-tensorflow/

·         http://suriyadeepan.github.io/2016-12-31-practical-seq2seq/

在Chatbot和Summarization中使用(未排序)

·         https://tutorials.botsfloor.com/how-to-build-your-first-chatbot-c84495d4622d

·         https://medium.com/towards-data-science/text-summarization-with-amazon-reviews-41801c2210b

·         http://pavel.surmenok.com/2016/10/15/how-to-run-text-summarization-with-tensorflow/

往期精彩内容分享:

麻省理工学院-2017年-深度学习与自动驾驶视频课程分享

模型汇总22 机器学习相关基础数学理论、概念、模型思维导图分享

深度学习在自然语言处理中的应用综述

深度学习与NLP 深度学习|机器学习|人工智能 精品视频教程合集分享

深度学习/机器学习的处理器列表(最全_中文版)

纯干货14 2017年-李宏毅-最新深度学习/机器学习中文视频教程分享_后篇

纯干货10 强化学习视频教程分享(从入门到精通)

纯干货7 Domain Adaptation视频教程(附PPT)及经典论文分享

扫描下方二维码可以订阅哦!

DeepLearning_NLP

深度学习与NLP

       商务合作请联系微信号:lqfarmerlq

登录查看更多
4

相关内容

基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
机器翻译深度学习最新综述
专知会员服务
98+阅读 · 2020年2月20日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
资源|Blockchain区块链中文资源阅读列表
专知会员服务
43+阅读 · 2019年11月20日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
Github库分享:超全的PyTorch学习资源汇总
专知
21+阅读 · 2019年5月9日
收藏 | Tensorflow实现的深度NLP模型集锦(附资源)
THU数据派
12+阅读 · 2019年4月28日
自然语言处理中注意力机制综述
黑龙江大学自然语言处理实验室
11+阅读 · 2019年2月26日
最前沿的深度学习论文、架构及资源分享
深度学习与NLP
13+阅读 · 2018年1月25日
自然语言处理数据集免费资源开放(附学习资料)
自然语言处理 (NLP)资源大全
机械鸡
35+阅读 · 2017年9月17日
Arxiv
4+阅读 · 2018年10月31日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
3+阅读 · 2018年5月28日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
相关论文
Arxiv
4+阅读 · 2018年10月31日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
3+阅读 · 2018年5月28日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年4月18日
Top
微信扫码咨询专知VIP会员