在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
@zhangjun 推荐
#Machine Reading Comprehension
大型中文阅读理解数据集,工作来自百度。
@ccclyu 推荐
#Transfer Learning
引入了迁移学习的隐含表示层来减少 test dataset 的稀疏性。
@xiaolu 推荐
#Visual Question Answering
视觉问答任务(Viual Question Answering)是最近 2-3 年兴起的多模态任务。对于视觉问答任务,算法需要同时理解图片内容和语言信息,然后推理出正确的答案。目前常见的方法有多模态特征融合和以及视觉注意力机制。
已有的注意力机制主要有两类,一类是基于全图区域的注意力机制,一类是基于检测框区域的注意力机制,前者容易关注到物体的一部分,后者会缺少一些检测框。
本文第一次尝试将基于全图区域的与基于检测框区域的注意力机制融合在一个框架下,充分利用全图区域和检测框之间的互补信息;并且提出新的多模态特征融合方法,将问题特征、全图特征、检测框特征进行有效的融合。模型在 VQA 和 COCO-QA 两个主流数据集上实现了目前最好的结果。
@cornicione 推荐
#People Counting
文章融合了 MRF 和 deep 网络,提出了一种统计静态图片中人数的方法。
@zk5580752 推荐
#Attention Model
本文是一篇基于 Social LSTM 的后续论文,Social LSTM 是李飞飞团队于 2016 年提出的行人路径预测方法。本文则在原文基础上改进了预测方式,不仅仅基于 RNN 模型,还引入了 Attention Model,使得预测更加精准和全面。
@paperweekly 推荐
#RNN
本文尝试改进了语言模型在预测 next token 时用 softmax 遇到的计算瓶颈。
本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√热门职位√
找全职找实习都不是问题
解锁方式
1. 识别下方二维码打开小程序
2. 用PaperWeekly社区账号进行登陆
3. 登陆后即可解锁所有功能
职位发布
请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序
*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。