大神们最近都在读这些论文 | 本周值得读 #44

2017 年 8 月 12 日 PaperWeekly arXiv打卡小组
「本周值得读」是 PaperWeekly 的优质文章集合地。在这里,来自 NLP、CV、DL 等方向的学习达人,各自用精炼妙语推荐当下最新的高质量文章。 
这是第 44 篇「本周值得读」


#GAN#


Triple Generative Adversarial Nets


从博弈角度来说,TripleGAN 的博弈涉及三方,判别器、生成器和分类器。其中,判别器和生成器有对抗;判别器和分类器(在训练前期)有对抗;生成器和分类器协助作用。可以从斗地主的角度来看,判别器是地主,生成器和分类器是农民。


它拆掉分类器,就是一个 CGAN。拆掉生成器,它就是一个半监督的 GAN。此外,我们还能从对偶学习的角度进行解读,生成器对 p(x|y) 进行建模,而分类器则对 p(y|x) 建模。两者在判别器的统筹下达成 p(x,y) 的一致性。这是很漂亮的对偶思想!可以说这篇文章对三方的设计非常巧妙。


论文链接:https://arxiv.org/abs/1703.02291


代码链接:

https://github.com/zhenxuan00/triple-gan


推荐人:洪佳鹏,北京大学(PaperWeekly arXiv 打卡小组)



#问题生成#


Learning to Ask: Neural Question Generation for Reading Comprehension


本文提出一种基本 attention 的问题生成模型,模型依据输入的句子(段落)生成相应的问题。 本文提出了两种生成机制:基于句子、句子和段落结合。 


解码模型:基于条件模型即:question = argmax P(y|x),其中 question 分解成词用 LSTM 逐字生成,输出可能存在一些稀有词,使用 UNK 代替,模型把其替换成相应生成步骤 attention 值最高的词。 


基于句子:使用 bidirection rnn 编码句子,并结合 attention 生成句子表示,输入解码器。 


基于句子和段落:使用 bidirection rnn 编码段落,并结合 attention 生成段落表示,拼接句子表示,输入解码器。 


实验:使用 SQuAD 数据集,包含问题答案并且与问题有至少一个非停词重合的句子和问题组成 sentence-question pair,用作训练数据。 


实验结果表明:本模型无论是机评还是人评效果都好于传统模型,另外,在人评时,生成的结果有好于人编写的问题。


* Accepted to ACL 2017


论文链接:https://arxiv.org/abs/1705.00106


代码链接:https://github.com/xinyadu/nqg


推荐人:罗玄,北京邮电大学(PaperWeekly arXiv 打卡小组)



#文本生成#


Toward Controlled Generation of Text


本文来自邢波小组,发表于 ICML2017。针对基于 VAE 的文本生成问题,作者提出了一个将 VAE 与 attribute discriminator 结合的模型,以实现对生成文本的属性(例如 sentiment,tense)的控制。 


该模型有三个部分,encoder,generator (即 VAE 中的 decoder),discriminator。与 vanilla VAE 不同,对于一个句子输入 x,encoder 不仅要生成 latent variable z 的分布,还要生成 attribute c 的分布。这个 c 即是用来表示文本属性的。于是当 generator 基于 z 和 c 来生成句子 x^hat,我们就能通过控制 c 来控制生成的句子的属性。Discriminator 则是用来预测句子输入 x^hat 的属性 c^hat 的。 


模型的训练分为两个部分:(1)普通的 VAE 的无指导训练可以优化 encoder 和 generator,但是这样并没有对 c 进行建模。为了让 c 能够包含我们指定的属性信息,就需要利用 discriminator;(2)标注少量的 x,c 数据对,使用文中提到的算法就能优化 generator 和 discriminator,并让 c 来 encode 特定的文本信息。通过上述两个部分的训练,这个 semi-supervised 的方法就能优化整个模型。 


实验部分,本文使用 IMDB,Stanford Sentiment Treebank-2,TimeBank 来分别获得无标注,有 sentiment 标注,有 tense 标注的数据。实验方法为:人为指定了 c 后,用 generator 生成 x^hat,再用另外的分类器判断 x^hat 的标签与指定的 c 是否相符,即检验生成的文本是否符合我们希望的属性。结果表明,该模型好于 S-VAE [2]。另外从本文中给出的生成样例来看,模型的效果还是不错的。 与本文类似的工作还有 conditioned VAE [3,4],VHRED [5]。


论文链接:https://arxiv.org/abs/1703.00955


[2]: https://arxiv.org/abs/1406.5298


[3]: https://arxiv.org/abs/1703.10960


[4]: https://arxiv.org/abs/1705.00316


[5]: https://arxiv.org/abs/1605.06069


推荐人:赵天雨,京都大学(PaperWeekly arXiv 打卡小组)



#词向量#


Learned in Translation: Contextualized Word Vectors


词向量是深度学习在 NLP 任务中应用的一个基础部件,一个预训练好的高质量词向量作为其他下游任务的初始化将会提升下游任务的效果。本文用机器翻译任务训练好的 encoder 来输出考虑了上下文信息的词向量来代替之前常用的 word2vec 和 glove,本质上就是每个 word 在 encoder 中的 hidden vector,然后通过诸多下游任务,比如文本分类,qa 等验证了方法的有效性,并开放了 pytorch 实现的源代码。


论文链接:https://arxiv.org/abs/1708.00107


代码链接:https://github.com/salesforce/cove


官方博客解读:

https://einstein.ai/research/learned-in-translation-contextualized-word-vectors


推荐人:大俊,PaperWeekly 首席客服



#句向量#


A Simple But Tough To Beat Baseline For Sentence Embeddings


本文来自普林斯顿大学, 随着词向量在 nlp 任务中的成功, 更多的人开始探索较长文本如短语, 句子,段落的向量表示, 本文提出了一种简单但是有效的句向量算法, 只需要将句子中的向量进行加权平均, 再减去句子的矩阵的主成分即可, 但是本文算法在句子相似度, 文本蕴含, 文本分类问题都取得了更好的效果, 甚至在部分任务上, 超过了监督方法训练的句向量,文章还进一步证明, 经典的 CBOW 算法在采用 sub-sampling 的情况下,其实质与 本文所提的算法是等价的。 只是目的不同。


论文链接:

https://openreview.net/pdf?id=SyK00v5xx


代码链接:https://github.com/PrincetonML/SIF


推荐人:于翮,北京航空航天大学(PaperWeekly arXiv 打卡小组)



#综述#


Recent Trends in Deep Learning Based Natural Language Processing


本文是一篇 deep learning in NLP 的综述,详细地介绍了 DL 在 NLP 中的模型以及应用,还对几大经典和热门任务做了摘要,推荐给大家。


论文链接:https://arxiv.org/abs/1708.02709


推荐人:大俊,PaperWeekly 首席客服



#Word Embedding#


Skip-Gram – Zipf + Uniform = Vector Additivity


近年来,word-embedding 模型因为在多项任务上表现出色而广受欢迎,包括单词类比问题 (word analogy) 和字幕生成 (caption generation)。这个模型的“副产品”是得到的向量往往具有合成性 (compositionality),即:添加两个词向量的结果近似于另外一个向量,这个向量往往表示一个语义复合词。例如,man + royal = king。


这篇文章从数学推导的角度,证明了通过 Skip-Gram 模型训练得到的 word-embeding 为何会具有合成性。 这篇文章全文使用了数学推导解释了一个困扰学界的问题,具有很大的阅读价值。 本文工作被 ACL2017 接收。


论文链接:http://aclweb.org/anthology/P17-1007


推荐人:

姚文林,Texas A&M University(PaperWeekly arXiv 打卡小组)



#文本分类#

#编码方式#


Which Encoding is the Best for Text Classification in Chinese, English, Japanese and Korean?


本文工作来自 Yann LeCun 组,做了一个大型的对比实验,实验的目的是对文本分类任务中不同语言的编码方式(utf-8 还是其他)和不同 level 的 embedding(byte 或 char 还是 word)在不同模型(CNN/RNN 或者其他)中组合使用的效果进行测试,得到了一系列有参考价值的结论。


论文链接:https://arxiv.org/abs/1708.02657


推荐人:大俊,PaperWeekly 首席客服


✎✎✎


「本周值得读」栏目的内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是 arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,并且培养良好的阅读习惯,就请加入我们吧。请添加下面的微信号,并注明「志愿者+学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。


关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

登录查看更多
7

相关内容

【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
专知会员服务
53+阅读 · 2019年12月22日
CMU博士论文:可微优化机器学习建模
专知会员服务
58+阅读 · 2019年10月26日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
本周NLP、CV、机器学习论文精选推荐
PaperWeekly
8+阅读 · 2018年12月21日
关于知识图谱,各路大神最近都在读哪些论文?
PaperWeekly
12+阅读 · 2018年5月23日
论文 | 15篇近期值得读的AI论文
黑龙江大学自然语言处理实验室
16+阅读 · 2018年2月12日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
8篇高质量论文已为你打包完毕 | 本周值得读 #41
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
5+阅读 · 2019年4月21日
VIP会员
相关VIP内容
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
专知会员服务
53+阅读 · 2019年12月22日
CMU博士论文:可微优化机器学习建模
专知会员服务
58+阅读 · 2019年10月26日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
本周NLP、CV、机器学习论文精选推荐
PaperWeekly
8+阅读 · 2018年12月21日
关于知识图谱,各路大神最近都在读哪些论文?
PaperWeekly
12+阅读 · 2018年5月23日
论文 | 15篇近期值得读的AI论文
黑龙江大学自然语言处理实验室
16+阅读 · 2018年2月12日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
8篇高质量论文已为你打包完毕 | 本周值得读 #41
相关论文
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
5+阅读 · 2019年4月21日
Top
微信扫码咨询专知VIP会员