缺少灵感?你一定需要这8篇论文 | 本周值得读 #37

2017 年 6 月 16 日 PaperWeekly arXiv打卡小组
「本周值得读」是 PaperWeekly 的优质文章集合地。在这里,来自 NLP、CV、DL 等方向的学习达人,各自用精炼妙语推荐当下最新的高质量文章。 
这是第 37 篇「本周值得读」


#ICML#


On orthogonality and learning recurrent networks with long term dependencies


RNN 中存在不可避免的梯度消失和爆炸的问题,用正交矩阵能够保证这个问题,但是是否严格正交一定是最好的。本文探究 RNN 中的 weight matrix 的正交约束对于 training 的收敛速度和模型表现的影响。用一种 SVD 以及参数化的方式来 constraint training 过程中每一步的 W 所对应的 norm 的变化,以此来观察模型的能力。实验在人工的数据集以及 MNIST 和 PTB 都验证了。得到结论:对于不同 task 表现不同;但是在 sequence training 中,正交约束不应该太严格;而对于 training 的 sequence 非常长的情况,则应该对正交约束比较强才合适。


论文链接:https://arxiv.org/pdf/1702.00071.pdf


推荐人:吴郦军,中山大学(PaperWeekly arXiv 打卡小组)



#GAN#


DeLiGAN : Generative Adversarial Networks for Diverse and Limited Data


GAN 一般要基于大量数据训练才能抓取到数据多样性,而本文提一种基于少量数据就能训练出能产生多样性数据的 GAN 模型,并提出了一种衡量多样性 modified-inception-score。当数据量有限时,通过加大模型的深度提升效果基本不可行,因此增强先验分布多样性来增加多样性是一个可选的方法。DeLiGAN 主要通过 reparameterise(One-liners method)隐变量空间(Mixture-of-Gaussians, supposed uniform distribute)形成一种混合模型,而本方法可以做为一个“插件”结合到很多 GAN 模型中,模型在 MNIST、CIFAR 10、Freehand Sketches 三个数据集中试验取得了比较好的结果。


论文链接:https://arxiv.org/abs/1706.02071


相关代

https://github.com/tonybeltramelli/pix2code


推荐人:罗玄,北京邮电大学(PaperWeekly arXiv 打卡小组)



#深度神经网络#


The Landscape of Deep Learning Algorithms


本文研究了深度线性和 sigmoid 非线性神经网络的收敛性,指出在某些常见假设(样本 iid &一致有界,梯度有界等)下,这两种网络的经验风险(emprical risk)、稳定性(stability)、泛化能力(generalization)、梯度(gradient)、驻点(stationary points)均一致收敛。这应该是第一个给出深度神经网络一致收敛性的工作,文章指出,该结论还能推广到 ReLU 神经网络上。关于深度神经网络的理论分析很难,也不多,本文得到了一个较好的结果。


论文链接:https://arxiv.org/abs/1705.07038


推荐人:洪佳鹏,北京大学(PaperWeekly arXiv 打卡小组)


#相似句生成#


Learning Paraphrastic Sentence Embeddings from Back-Translated Bitext


一个非常有趣的想法,通过先将 A 语言翻译成 B 语言,再将 B 语言翻译回 A 语言来生成 paraphrase pairs 作为其他任务的训练集,取得了不错的效果。这个想法可能并不难,文章中有一些技巧可能会非常关键。现在语义理解中,相似句的判别,相似句训练集的准备都是不小的难题,本文的思路也许会有帮助。实际应用中,翻译工具的使用应该会是一个比较好玩的东西。

论文链接:http://cn.arxiv.org/abs/1706.01847


推荐人:大俊,PaperWeekly 首席客服



#CVPR2017#


Loss Max-Pooling for Semantic Image Segmentation


本文主要解决的是 semantic segmentation 中 imbalanced training data distributions 问题。在 semantic segmentation 数据集包括现实世界中存在明显的长尾分布的问题,即大多数的数据组成了小部分的类别,因此会导致学习器更偏向于这些类别。 


主要思想是通过 pixel weighting functions 自适应地对每个像素的 contribution(即实际展现的 loss)进行 re-weighting,使引起更高 loss 的像素的权重更大,这直接对潜在的类内和类间不平衡进行了补偿;然后通过普通的max-pooling在pixel-loss level上对pixel weighting function取最大。而这个最大值是传统loss(即每个像素损失的权重是相等的)的上界,也就是说这种方法包括了传统loss的情况。 


文中主要关注 p 范数和无穷范数下的 weighting functions,同时对对应的 p 范数和无穷范数也做了界定,使得通过调节 p 可以对像素进行一定程度的选择,即对部分像素进行赋予权重。 文章使用偏数学证明的方法进行论证,详细证明过程请查看论文。


论文链接:https://arxiv.org/abs/1704.02966


详细解读:

https://zhuanlan.zhihu.com/p/27394105


推荐人:余昌黔,华中科技大学(PaperWeekly arXiv 打卡小组)


#对话系统#


Assigning personality/identity to a chatting machine for coherent conversation generation


本文的亮点在于生成对话时考虑了 personality 或者 identity,使得整个聊天过程更加连贯和自然。该文章的作者之前有一篇工作研究了在生成不同情绪的对话,非常有意思。

论文链接:http://cn.arxiv.org/abs/1706.02861


推荐人:大俊,PaperWeekly 首席客服



#图像分割# 


Recurrent Scene Parsing with Perspective Understanding in the Loop


这篇文章中提出了 depth-aware gating module 和 recurrent refinement module 来改善图像分割的效果,在多个数据集和 benchmark 上都得到了较好效果。 


景深的信息通过训练一个 regressor 得到,并且对 depth map 使用高斯平滑处理,将 depth map 与图像结合成 RGB-D 的 4 通道数据。景深信息的门结构(depth-aware gating module)在网络中评估景深信息得出目标尺度,然后在 atrous convolution 中自适应的使用不同 dilate rates 来产生需要的 pooling field size。这样可以做到对远处物体保留更多细节,并且对近处物体有较大的感受野。在分割的过程中反复改进(recurrent refinement module)输出结果,即优化一个关于 semantic segmentation,depth regression 和 quantized depth classification 的目标函数。


论文链接:https://arxiv.org/abs/1705.07238


相关代

https://github.com/aimerykong/Recurrent-Scene-Parsing-with-Perspective-Understanding-in-the-loop


推荐人:刘桐,天津大学(PaperWeekly arXiv 打卡小组)


#机器阅读理解# 


S-Net: From Answer Extraction to Answer Generation for Machine Reading Comprehension


一类机器阅读理解问题需要从 passage 中抽取出问题的答案,本文提出了一个新的思路,在抽取的基础上,设计了一个生成模型,依靠抽取出的比较重要的 sub-spans、passage 和 question 一起来生成最终的答案。实验在 MS-MARCO 数据集上进行,相比于单纯地答案抽取,有更好的效果。


论文链接:http://cn.arxiv.org/abs/1706.04815


数据集地址:http://www.msmarco.org/


推荐人:大俊,PaperWeekly 首席客服



✎✎✎


「本周值得读」栏目的内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是 arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,并且培养良好的阅读习惯,就请加入我们吧。请添加下面的微信号,并注明「志愿者+学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。


关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

登录查看更多
0

相关内容

【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
专知会员服务
146+阅读 · 2020年6月15日
专知会员服务
60+阅读 · 2020年3月19日
2019必读的十大深度强化学习论文
专知会员服务
58+阅读 · 2020年1月16日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
专知会员服务
53+阅读 · 2019年12月22日
【NeurIPS 2019 Apple成果汇总】《Apple at NeurIPS 2019》
专知会员服务
10+阅读 · 2019年12月6日
本周值得读的15篇AI论文,还有源码搭配服用
中国人工智能学会
3+阅读 · 2019年3月26日
选对论文,效率提升50% | 本周值得读
PaperWeekly
5+阅读 · 2018年3月9日
论文 | 15篇近期值得读的AI论文
黑龙江大学自然语言处理实验室
16+阅读 · 2018年2月12日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
大神们最近都在读这些论文 | 本周值得读 #44
PaperWeekly
7+阅读 · 2017年8月12日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
Paraphrase Generation with Deep Reinforcement Learning
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
VIP会员
相关VIP内容
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
专知会员服务
146+阅读 · 2020年6月15日
专知会员服务
60+阅读 · 2020年3月19日
2019必读的十大深度强化学习论文
专知会员服务
58+阅读 · 2020年1月16日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
专知会员服务
53+阅读 · 2019年12月22日
【NeurIPS 2019 Apple成果汇总】《Apple at NeurIPS 2019》
专知会员服务
10+阅读 · 2019年12月6日
相关资讯
本周值得读的15篇AI论文,还有源码搭配服用
中国人工智能学会
3+阅读 · 2019年3月26日
选对论文,效率提升50% | 本周值得读
PaperWeekly
5+阅读 · 2018年3月9日
论文 | 15篇近期值得读的AI论文
黑龙江大学自然语言处理实验室
16+阅读 · 2018年2月12日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
大神们最近都在读这些论文 | 本周值得读 #44
PaperWeekly
7+阅读 · 2017年8月12日
相关论文
Top
微信扫码咨询专知VIP会员