Simple, Distributed, and Accelerated Probabilistic Programming
今天,谷歌大脑的研究人员们提出了一种简单、低层次的方法用于在深度学习生态中概率编程的嵌入。这种简单分布式、加速的概率编程,可以将概率程序扩展到512个TPUv2、1亿以上个参数模型。
地址:https://arxiv.org/abs/1811.02091
Language GANs Falling Short
生成高质量、多样化的文本对自然语言生成任务来说非常重要。经过训练的最大似然模型常常被认为是弱基准,偏见总会导致较差的性能。在这篇文章中,我们发现了几点此前从未意识到的现象。首先,我们发现了衡量文本质量的基础缺陷:如果仅用一个简单的参数就能减少模型条件分布的熵,从而改善性能。说明GAN在自然语言生成方面存在不足。
地址:https://arxiv.org/abs/1811.02549
Towards continual learning in medical imaging
这篇文章研究了用神经网络在大脑核磁共振图像中,对两个分隔任务进行持续学习的方法。为了进行研究,我们详细了解了elastic weight consolidation,这是最近新提出的基于费希尔信息的方法,最初用来衡量雅达利游戏中的强化学习表现。我们用它学习正常大脑框架中的分割和有白色物质区域中的分割。
地址:https://arxiv.org/abs/1811.02496
星标论智,每天获取最新资讯