在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
@paperweekly 推荐
#Text Classification
将强化学习应用于文本分类任务中,已被 AAAI2018录用。作者团队在上期 PhD Talk 中对本文做过在线解读。
@paperweekly 推荐
#Relation Extraction
将强度学习应用于关系抽取任务中,取得了不错的效果。本文已被 AAAI2018 录用。作者团队在上期 PhD Talk 中对本文做过在线解读。
Generative Adversarial Network for Abstractive Text Summarization
@zhangjun 推荐
#Text Summarization
尝试用 GAN 来解决 Abstractive Summarization 任务,并在 CNN/Daily Mail 数据集上取得了不错的效果,工作已被 AAAI2018 录用。论文只有少量信息,可结合补充材料进行阅读。
@shaonan 推荐
#Representation Learning
利用人脑的成分语义表征来解释词汇表示向量和向量组合的过程,深度理解不同类型的词汇表示中到底蕴含了什么样的信息,词义组合到底组合了什么。
@paperweekly 推荐
#Seq2Seq
本文是一篇 Practical Guide,讲了很多用端到端方法来做文本生成问题时的细节问题和技巧,值得一看。
@Andy 推荐
#Multi-task Learning
本文主要通过了对一致性预测还有 CCG 超标记进行多任务学习,来展示了如何通过多任务学习,来让 RNN 能够学习出更加复杂的句法表达。此外还发现利用一致性预测的训练数据,也可以提高其他只有有限训练数据任务的表现。这样的多任务模型,还可以将语法知识注入进语言模型中去(当然也包括机器翻译)。
@zhangjun 推荐
#Neural Machine Translation
本文是一篇综述文章,用知识图谱来解决机器翻译问题。
@xwzhong 推荐
#Neural Machine Translation
seq2seq 运用于翻译,在 decoder 部分,beam search 引入了 reinforcement learning,使当前 step 考虑了 BLEU。从其它角度讲,是不是也可以使用 RL 思想在 seq2seq 模型中引入其它知识。
@paperweekly 推荐
#Dialog Systems
一篇基于强化学习的端到端对话系统研究工作,来自 CMU 和 Google。
本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√热门职位√
找全职找实习都不是问题
解锁方式
1. 识别下方二维码打开小程序
2. 用PaperWeekly社区账号进行登陆
3. 登陆后即可解锁所有功能
职位发布
请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序
*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。