在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
[ 自然语言处理 ]
@xwzhong 推荐
#Sentiment Classification
近年来,深度学习有了突破性发展,NLP 领域里的情感分析任务逐渐引入了这种方法,并形成了很多业内最佳结果。本文中,来自领英与伊利诺伊大学芝加哥分校的研究人员对基于深度学习的情感分析研究进行了详细论述。
@paperweekly 推荐
#Short Text Expansion
本文来自 Google Brain,通过长序列摘要生成维基百科。
MaskGAN: Better Text Generation via Filling in the ______
@Synced 推荐
#Paraphrase Generation
谷歌大脑提出使用生成对抗网络(GAN)来提高文本质量,它通过显式地训练生成器产生高质量文本,并且已经在图像生成领域取得很大成功。GAN 最初设计用于输出可微分的值,所以生成离散语言是具有挑战性的。作者认为验证复杂度本身不代表模型生成的文本质量。
本文引入条件 actor-critic GAN,它可以基于上下文填充缺失的文本。本文从定性和定量的角度证明,相比最大似然训练的模型,这种方法生成了更真实的有条件和无条件文本样本。
@duinodu 推荐
#Text Classification
文本分类问题,给一段文本指定一个类别,在主题分类和情感分析中都有应用到。它的难点在于如何在具有语义的文本中,对句子之间的内在联系(语义或句法)进行编码。这对文本情感分类很关键,因为比如像“对照”或者“因果”等关系,会直接决定整个文档的性质。
本文并没有提出一套完整的解决方法,而是通过构建新的数据集(训练集和测试集尽可能不包含共同的关键词),验证上面的猜想。此外,作者还设计了一种 ANON 的正则方法,让网络不那么容易记住文档的关键词。
@yinnxinn 推荐
#Question Answering
本文使用 RNN+CNN 的结构来完成 NLP 中的问答任务,其亮点在于使用 RNN 获取 question 和 answer 的上下文语义,CNN 在语义层面对二者进行操作。
@EthanLC 推荐
#Multimodal
本文对 referring expression(指向目标物体的自然语句)进行 modular network 的建模,提供了主语,位置,关系三个 module。
每个 module 的组合权重由 attention 机制来实现,各个模块内提供不同的 visual attention 来关注图片内的相关区域。模型涉及到的 word,module,visual 的 attention 都当做隐变量自动学习。
整体框架可以与 Mask R-CNN 无缝连接,在目标定位和分割两个 task 上都达到了目前最佳准确率。
Demo: http://gpuvision.cs.unc.edu/refer/comprehension
@huapohen 推荐
#GAN
ICLR2018 高分论文,通过 optimal transport(最优传输)的角度,Wasserstein+auto-encoder 构建生成模型。但对 GAN 有情怀,通过对抗训练学习对手来提升自己,学习此篇 WAE(WGAN 的对手)正是如此,助于我们提升 GAN 网络的生成性能和或解释性。
@somtian 推荐
#CNN
本文通过将 dilated 卷积的 feature maps 做 dense connection,使模型可以处理计算机视觉中的很多问题,比如混合尺度的处理以及可以应用到很多问题中。同时减少了网络的参数,加速训练和应用。
@duinodu 推荐
#CNN
用 CNN 处理序列数据的问题在于,序列数据在时间上是存在畸变的,比如速率不稳定。而 CNN 的这种线性性质,让卷积核无法处理时间畸变这个问题。
本文提出了一种在 CNN 的卷积核中对齐权重的方法,使得这样的 CNN 更能处理序列数据,并在多个数据集上验证了这个方法的有效性。
@arlen 推荐
#Object Detection
本文来自中科院自动化所,论文利用多层特征效果显著,结合了单阶段和双阶段的优点,在准确率和速度上有很好的均衡。
@Synced 推荐
#Model Optimization
本文回顾了用于模型评估、模型选择和算法选择任务中的不同技术,并参考理论和实证研究讨论了每种技术的主要优势和劣势。
@snowwalkerj 推荐
#Activation Function
本文设计了一种 PoLU 激活函数,在多个数据集上取得超过 ReLU 的性能。
@Ttssxuan 推荐
#Recommender System
本文把用行为使用 item 描述进行串连,构成文档,并使用 doc2vec 训练用户表示向量。
@xaj 推荐
#Multi-task Learning
本文研究的问题是多任务学习。作者提出了一种对多个网络(对应多个任务)进行逐层特征融合的方法。
@arlen 推荐
#Object Detection
本文是网络表示学习大牛 Jian Tang 的工作,论文利用 multi-view 来对网络进行表示学习。各个 view 之间通过共享邻居来保证所有节点表示在同一个空间中,同时,通过引入 attention 机制,可以学到不同节点在不同 view 的权重。
本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√热门职位√
找全职找实习都不是问题
解锁方式
1. 识别下方二维码打开小程序
2. 用PaperWeekly社区账号进行登陆
3. 登陆后即可解锁所有功能
职位发布
请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序
*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。