在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
[ 自然语言处理 ]
@guotong1988 推荐
#Seq2Seq
Text2SQL,根据自然语言生成结构化 SQL 语句。
@utopiar 推荐
#Recurrent Neural Networks
本文提出使用动态评估来改进神经序列模型的性能。 模型通过基于梯度下降的机制适应最近的历史,将以更高概率分配给重新出现的连续模式。动态评估将 Penn Treebank 和 WikiText-2 数据集上的 perplexities 分别提高到 51.1 和 44.3。
@Andy 推荐
#Multi-task Learning
本文主要通过了对一致性预测还有 CCG 超标记进行多任务学习,来展示了如何通过多任务学习,让 RNN 能够学习出更加复杂的句法表达。此外还发现利用一致性预测的训练数据,也可以提高其他只有有限训练数据任务的表现。这样的多任务模型,还可以将语法知识注入进语言模型中去(当然也包括机器翻译)。
@paperweekly 推荐
#GAN
Reddit 热文,利用 GAN 自定义表情和面部特征。StarGAN 是一种全新的可扩展方法,仅使用一个模型就能为多个域执行图像到图像转换。
@jamiechoi 推荐
#Image Captioning
文章比较了 RNN 在 image caption 里的两种作用:1. Inject模型:RNN 用来 encode 文字和图片;2. Merge 模型:RNN 只 encode 文字,图片在较后的阶段再与文字信息结合。最后得出结论,Merge 模型较好。
@snowwalkerj 推荐
#RNN
本文提出的 dilated RNN,解决了长程依赖的问题,同时可提高并行率,提高计算速度;提出 Mean Recurrent Length 指标,衡量 RNN 可记忆的时间长度,仅用普通的 RNN 模块在多项任务上达到 state of art 效果。
@Ttssxuan 推荐
#LSTM
使用多种时间粒度进行用户行为预测,并为大量数据提出类似词嵌的预训方法。 使用 DSSM 建模用户静态兴趣,使用一个 LSTM 时序网络建模用户短期兴趣,使用一个 LSTM 时序网络建模全局用户兴趣。
本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√热门职位√
找全职找实习都不是问题
解锁方式
1. 识别下方二维码打开小程序
2. 用PaperWeekly社区账号进行登陆
3. 登陆后即可解锁所有功能
职位发布
请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序
*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。