每日论文 | 谷歌提出简单加速的概率编程;GAN在文本生成中的缺陷;在医学图像中进行持续学习

2018 年 11 月 8 日 论智

1

Simple, Distributed, and Accelerated Probabilistic Programming

今天,谷歌大脑的研究人员们提出了一种简单、低层次的方法用于在深度学习生态中概率编程的嵌入。这种简单分布式、加速的概率编程,可以将概率程序扩展到512个TPUv2、1亿以上个参数模型。

地址:https://arxiv.org/abs/1811.02091

2

Language GANs Falling Short

生成高质量、多样化的文本对自然语言生成任务来说非常重要。经过训练的最大似然模型常常被认为是弱基准,偏见总会导致较差的性能。在这篇文章中,我们发现了几点此前从未意识到的现象。首先,我们发现了衡量文本质量的基础缺陷:如果仅用一个简单的参数就能减少模型条件分布的熵,从而改善性能。说明GAN在自然语言生成方面存在不足。

地址:https://arxiv.org/abs/1811.02549

3

Towards continual learning in medical imaging

这篇文章研究了用神经网络在大脑核磁共振图像中,对两个分隔任务进行持续学习的方法。为了进行研究,我们详细了解了elastic weight consolidation,这是最近新提出的基于费希尔信息的方法,最初用来衡量雅达利游戏中的强化学习表现。我们用它学习正常大脑框架中的分割和有白色物质区域中的分割。

地址:https://arxiv.org/abs/1811.02496

星标论智,每天获取最新资讯

登录查看更多
4

相关内容

【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
12+阅读 · 2020年6月2日
专知会员服务
107+阅读 · 2020年5月21日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
自动结构变分推理,Automatic structured variational inference
专知会员服务
38+阅读 · 2020年2月10日
深度神经网络模型压缩与加速综述
专知会员服务
127+阅读 · 2019年10月12日
论强化学习的根本缺陷
AI科技评论
11+阅读 · 2018年7月24日
【学界】基于生成对抗网络的低秩图像生成方法
GAN生成式对抗网络
9+阅读 · 2018年7月13日
【学界】生成式对抗网络:从生成数据到创造智能
GAN生成式对抗网络
6+阅读 · 2018年6月14日
Anomalous Instance Detection in Deep Learning: A Survey
Deep Learning for Generic Object Detection: A Survey
Arxiv
13+阅读 · 2018年9月6日
Arxiv
3+阅读 · 2018年4月3日
VIP会员
Top
微信扫码咨询专知VIP会员