开源代码“All in One”:6 份最新「Paper + Code」等你复现 | PaperDaily #12

2017 年 11 月 10 日 PaperWeekly 让你更懂AI的



在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。


在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第  12 篇文章
[ 自然语言处理 ]

Earth Mover’s Distance Minimization for Unsupervised Bilingual Lexicon Induction

@paperhwd 推荐

#Bilingual Word Embeddings

文章想解决的问题是如何使用无监督的方法构建双语词典,传统方法需要利用有监督的种子翻译词对来获得两个语言空间的映射。文章的主要思路是借助 GAN 这个工具。当然我们知道 GAN 存在训练困难的问题,所以文章其实真正实现的是 WGAN。 

关于文章的应用和意义,一方面为许多跨语言处理任务提供了重要资源,尤其是为完全缺乏双语资源的小语种和专门领域开辟了与其他语言连接的可能。此外,只使用单语语料就能构建双语词典意味着语言在词汇层面的某种同态性,佐证了人类语言在概念表示上可能存在的一致性。

论文链接

http://www.paperweekly.site/papers/1087

代码链接

http://nlp.csai.tsinghua.edu.cn/~zm/UBiLexEMD/


Ngram2vec: Learning Improved Word Representations from Ngram Co-occurrence Statistics

@paperhwd 推荐

#Word Embeddings

本文主要还是想生成质量更好的词向量,基于经典的 word2vec 的思想,在其之上加入了 ngram 的共现信息,取得了更好的结果。我更加在意的其实是他们提供了不错的工具包,同时在建立共现矩阵的时候采取了优化策略来减少存储开销,加快了计算速度。

论文链接

http://www.paperweekly.site/papers/1086

代码链接

https://github.com/zhezhaoa/ngram2vec/


Improved Neural Machine Translation with a Syntax-Aware Encoder and Decoder

@Andy 推荐

#Neural Machine Translation

文章提出了 bidirectional tree encoder,可以同时学会译出语言的序列表达和树状表达特征。之后,解码器利用这些信息进行解码。 其次,提出了 tree-coverage model,使得注意力机制更有效地利用了译出语言的句法结构。

论文链接

http://www.paperweekly.site/papers/1082

代码链接

https://github.com/howardchenhd/Syntax-awared-NMT/


A Simple Approach to Learn Polysemous Word Embeddings

@haimizhao 推荐

#Word Embeddings

文章在原有的向量表示的基础上,直接对上下文的向量表示作加权和,作为目标词在该上下文的表示,方法极其简单,可以低成本尝试,一系列评估方法也自成一体。

论文链接

http://www.paperweekly.site/papers/1052

代码链接

https://github.com/dingwc/multisense


Neural Paraphrase Generation with Stacked Residual LSTM Networks

@paperweekly 推荐

#Paraphrase Generation

本文是第一篇用 deep learning 来做 paraphrase 生成任务的工作,已开源。

论文链接

http://www.paperweekly.site/papers/1034

代码链接

https://github.com/iamaaditya/neural-paraphrase-generation


Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling

@applenob 推荐

#Recurrent Neural Networks

基于 attention 的意图识别 + 槽位填充 RNN 模型。

论文链接

http://www.paperweekly.site/papers/937

代码链接

https://github.com/DSKSD/RNN-for-Joint-NLU

https://github.com/applenob/RNN-for-Joint-NLU


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击阅读原文」即刻加入社区!

          

 我是彩蛋

 

解锁新姿势:用微信刷论文!


PaperWeekly小程序上线啦


今日arXiv√猜你喜欢√热门资源


随时紧跟最新最热论文

 

 解锁方式 

1. 识别下方二维码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能

 

长按识别二维码,使用小程序

*点击阅读原文即可注册





关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


登录查看更多
5

相关内容

【Manning新书】现代Java实战,592页pdf
专知会员服务
98+阅读 · 2020年5月22日
【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
50+阅读 · 2020年5月16日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
【综述】关键词生成,附10页pdf论文下载
专知会员服务
52+阅读 · 2019年11月20日
【书籍】深度学习框架:PyTorch入门与实践(附代码)
专知会员服务
160+阅读 · 2019年10月28日
【ICLR2020】五篇Open代码的GNN论文
专知会员服务
47+阅读 · 2019年10月2日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
COLING 2018 最佳论文解读:序列标注经典模型复现
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
3+阅读 · 2018年8月27日
Arxiv
5+阅读 · 2018年6月4日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
3+阅读 · 2018年3月2日
VIP会员
相关VIP内容
【Manning新书】现代Java实战,592页pdf
专知会员服务
98+阅读 · 2020年5月22日
【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
50+阅读 · 2020年5月16日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
【综述】关键词生成,附10页pdf论文下载
专知会员服务
52+阅读 · 2019年11月20日
【书籍】深度学习框架:PyTorch入门与实践(附代码)
专知会员服务
160+阅读 · 2019年10月28日
【ICLR2020】五篇Open代码的GNN论文
专知会员服务
47+阅读 · 2019年10月2日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关论文
Top
微信扫码咨询专知VIP会员