成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
ICLR 2020 匿名评审九篇满分论文,最佳论文或许就在其中
2020 年 2 月 1 日
机器之心
机器之心整理
参与:思源、蛋酱、泽南
从反传的自动微分机制,到不平行语料的翻译模型,ICLR 2020 这 9 篇满分论文值得你仔细阅读。
早在去年12月,ICLR 2020的
论文接收结果
就已经出来了,其接收率达到了26.5%。ICLR 2020今年4月26日将在埃塞俄比亚首都亚的斯亚贝巴举行,因为这次会议只保留了四个等级:reject、weak reject、weak accept和accept,因此有30多篇论文获得了“满分”。
在这篇文章中,我们将简介其中的9篇满分(全8分)论文,它们最终都被接收为Talk 论文,届时论文作者会在大会上做长达十多分钟的演讲报告。
论文:BackPACK: Packing more into Backprop
链接:https://openreview.net/forum?id=BJlrF24twB
机构:图宾根大学、不列颠哥伦比亚大学
在深度学习中,自动微分框架只在计算梯度时才是最强的。但实际上,小批量梯度的方差或者其它逼近海塞矩阵的方法,可以和梯度一样高效地计算。研究者对这些计算值非常感兴趣,但DL框架并不支持自动计算,且手动执行又异常繁杂。
为了解决这个问题,来自图宾根大学的研究者在本文中提出一种基于PyTorch的高效框架BackPACK,该框架可以扩展反向传播算法,进而从一阶和二阶导数中提取额外信息。研究者对深度神经网络上额外数量的计算进行了基准测试,并提供了一个测试最近几种曲率估算优化的示例应用,最终证实了BackPACK的性能。
BackPACK项目地址:https://github.com/toiaydcdyywlhzvlob/backpack
图注:
BACKPACK可以和PyTorch无缝拼接,并在反向传播中获得更多的信息,如上右图可以获取梯度的方差信息。
评审决定:接收为Talk论文;
评审意见:这篇论文高效的计算了各种反传的量,包括梯度的方差估计、多种海塞矩阵近似量,以及梯度量。与此同时,论文还提供了软件包,所有评审者都认为改论文是非常好的工作,大会应该接收它。
论文:
Mirror-Generative Neural Machine Translation
链接:https://openreview.net/forum?id=HkxQRTNYPH
机构:南京大学、字节跳动
训练神经机器翻译模型通常需要大量平行语料,它们是非常昂贵的,那么我们为什么不考虑充分利用非平行语料训练翻译模型?
在这篇论文中,研究者提出了一种名为镜像-生成式NMT的模型(MGNMT),它由单一的架构组成。该架构集成了源语言到目标语言的翻译模型、目标语言到源语言的翻译模型,其中两种翻译模型与语言模型都共享相同的潜在语义空间。因此,整个架构的两种翻译模型都可以从非并行数据中更高效地学习。
上面图1和图2分别展示了MGNMT的图示与镜像属性。在图1中,x和y分别是不同的语言,它们之间是需要互译的,与此同时,这两种语言同时共享隐藏语义空间z。在图2中,研究者展示了x、y、z三者具体的关系是什么样的,不论是语言模型还是翻译模型,隐藏变量z都是共享的。
评审决定:接收为Talk论文;
评审意见:这篇论文提出了一种新方法以考虑生成式神经机器翻译模型中的双向互译,该方法显著提升了翻译准确度。三位评审者都非常欣赏这篇论文,尽管他们注意到性能收益会随着模型复杂度的提升而变小。不管怎么样,该基线结果是非常有竞争力的,也许在这些数据集上的提升以后并不会特别大了。总体而言,我发现这篇论文非常优秀,并且强烈建议接收这篇论文,也许它可以作为口头报告论文。
论文:
GenDICE: Generalized Offline Estimation of Stationary Values
链接:https://openreview.net/forum?id=HkxlcnVFwB
机构:杜克大学,谷歌
马尔可夫链的平稳分布(stationary distribution)所定义的数量是强化学习和蒙特卡洛方法中的一个重要问题。在实际应用程序中,许多对基础转换运算符的访问仅限于已经收集的固定数据集,而不包括与环境的其他交互。
研究者认为,在固定数据的情况下,完成一致的估计仍然是有可能的,重要的应用中仍然可以实现有效估计。研究者提出了GenDICE算法,并证明了该方法在一般条件下的一致性。此外,研究者还提供了详细的错误分析,并演示了在基准任务上的强大经验性能。
评审决定:接收为Talk论文;
评审意见:作者开发了应用于Infinite Horizon强化学习任务的离策略价值评估框架,用于评估马尔可夫链的平稳分布。审稿人对这项工作印象非常深刻。
论文:
A Theory of Usable Information under Computational Constraints
链接:https://openreview.net/forum?id=r1eBeyHFDH
机构:北京大学、斯坦福大学等
研究者提出了一个用于在复杂系统中进行信息推理的新框架。该研究的基础是香农信息理论的变体扩展,该方法考虑了观察者的建模能力与计算约束。与香农的互信息不同,新框架并不违反数据处理不平衡的情况,可以通过计算构建F-information。这与深度学习分层抽取特征信息的表达方式类似。
根据实验,研究者证明预测性F-information比相互信息对结构学习和公平表示学习更有效。
评审决定:接收为Talk论文;
评审意见:所有评审者都接收了该论文。
论文:
CATER: A diagnostic dataset for Compositional Actions & TEmporal Reasoning
链接:https://openreview.net/forum?id=HJgzt2VKPB
机构:卡内基梅隆大学
在这篇论文中,研究者假设当前视频数据集存在一些隐式偏差,尤其是在场景和目标结构上,这可能会使时间结构改变。为此,研究者构建了一个具有完全可观察和可控制的目标、场景偏置,这样的视频数据集确实需要时空的理解才能解决,研究者将该数据集命名为CATER。
除了具有挑战性外,CATER还提供了许多诊断工具,可以通过完全可观察和可控制的方式来分析现代时空视频架构。通过CATER,我们可以洞悉某些最新的深度视频体系结构。
评审决定:接收为Talk论文;
评审意见:总体来说,所有评审者都发现该论文比较易读,并且对于数据集构造、任务定义、实验设定与分析都提供了足够的信息。该论文收到所有评审员的一致赞同(3 accepts)。
论文:
Dynamics-Aware Unsupervised Skill Discovery
链接:https://openreview.net/forum?id=HJgLZR4KvH
机构:谷歌、剑桥大学
通过新方法DADS,人形智能体可以在无奖励机制的情况下自行发现运动的合理机制。
传统上,基于模型的强化学习(MBRL)是旨在学习全环境动态的模型。优秀的模型应该倾向于让算法生成多种不同问题的解法。在这项工作中,研究人员结合了基于模型和无模型的基本学习方法,从而简化了基于模型的计划,提出了无监督学习算法Dynamics-Aware Discovery of Skills(DADS)。这种方法能发现可预测的行为并学习其动态。从理论上讲,这种方法可以学习无数种行为动态。
实验证明,这种zero-shot规划方法显著优于标准MBRL和无模型目标条件RL方法,可以处理稀疏奖励任务。
评审决定:接收为Talk论文;
评审意见:这是一篇非常有意思的无监督技能学习论文,它基于技能效果的可预测性,并将它们整合到基于模型的强化学习中。因为所表达想法和写作的清晰,同时因为令人信服的实验,这篇论文很明确应给被接收。
论文:
Restricting the Flow: Information Bottlenecks for Attribution
链接:https://openreview.net/forum?id=S1xWh1rYwB
机构:慕尼黑工业大学、柏林自由大学
归因方法(Attribution method)提供了对机器学习模型(如人工神经网络)决策的见解。对于给定的输入样本,这类方法为每个单独的输入变量(例如图片的像素)分配相关性分数。在这项工作中,作者将信息瓶颈概念用于归因。通过将噪声添加到中间特征图,我们可以限制信息流,并量化(以bit为单位)图像区域中提供的信息。作者在VGG-16和ResNet-50上与十个不同基线模型进行了比较,新方法在六种配置上有五种优于所有基线。
评审决定:接收为Talk论文;
评审意见:三个评审者都强烈建议接收该论文。该项研究非常清晰、新颖,同时对该领域有显著的贡献。
论文:
Mathematical Reasoning in Latent Space
链接:https://openreview.net/forum?id=Ske31kBtPr
机构:自谷歌研究院
作者设计了一种简单的实验,以研究神经网络是否可以在固定维度的隐空间中执行近似推理的多个步骤,发现算法可以成功地对语句执行的一组重写(即转换),表示该语句的基本语义特征。实验证明,图神经网络可以对语句的重写成功进行效果很好地预测,在隐形传播的多步骤情况下也是如此。
评审决定:接收为Talk论文;
评审意见:这篇论文受到了评审者的一致好评,其主题也非常有意思,关注潜在空间中的数学推理。领域主席统一推荐该论文接收为口头报告论文,因此可以更形象地展示本文所进行的工作。
论文:
Why Gradient Clipping Accelerates Training: A Theoretical Justification for Adaptivity
链接:https://openreview.net/forum?id=BJgnXpVYwS¬eId=KA65jj-wX
机构:麻省理工学院
作者提供了梯度剪裁在训练深度神经网络时有效性的合理解释。其关键因素是在实际神经网络训练样本中导出的新平滑度条件。研究人员观察到的梯度平滑,是一阶优化算法分析的核心概念,通常被认为是一个常数,证明了沿深度神经网络训练轨迹的显著变化。此外,该平滑度与梯度范数成正相关,并且与其他研究中的标准假设相反:它可以随着梯度范数而增长。这些观察结果限制了现有算法理论的适用性,后者依赖于平滑度的固定界限。
评审决定:接收为Talk论文;
评审意见:梯度裁剪目前变得越来越重要,因此很高兴能看到论文能从理论的角度挖掘它的优秀性能。所有评审都非常欣赏该项工作与最终结果。
本
文为机器之心整理,
转载请联系本公众号获得授权
。
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):
hr@jiqizhixin.com
投稿或寻求报道:content
@jiqizhixin.com
广告 & 商务合作:
bd@jiqizhixin.com
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
翻译模型
关注
0
自然语言处理ACL2020最佳论文出炉!微软摘得最佳论文,Bengio论文获时间检验奖
专知会员服务
44+阅读 · 2020年7月9日
【快讯】ECCV 2020论文出炉,1361篇上榜, 你的paper中了吗?
专知会员服务
56+阅读 · 2020年7月3日
近期必读的六篇顶会 ICML 2020【图神经网络 (GNN) 】相关论文
专知会员服务
142+阅读 · 2020年6月23日
【快讯】ICML 2020论文出炉,1088篇上榜, 你的paper中了吗?
专知会员服务
51+阅读 · 2020年6月1日
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
61+阅读 · 2020年1月18日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
98+阅读 · 2020年1月12日
【ICLR2020】理解非自回归机器翻译中的知识蒸馏(Understanding Knowledge Distillation in Non-autoregressive Machine Translation)
专知会员服务
10+阅读 · 2019年12月28日
【剑桥大学】神经机器翻译综述论文,Neural Machine Translation: A Review,附88页pdf
专知会员服务
35+阅读 · 2019年12月4日
【ICLR2020】五篇Open代码的GNN论文
专知会员服务
47+阅读 · 2019年10月2日
11篇ICLR2020满分文章,来看看他们都在做什么?
专知
18+阅读 · 2019年11月7日
ICLR 2020,你的论文提供代码了吗?这届评审不好惹
专知
39+阅读 · 2019年10月15日
ICLR 2019最佳论文揭晓!NLP深度学习、神经网络压缩夺魁 | 技术头条
AI100
6+阅读 · 2019年5月6日
投稿近2000,NAACL 2019接收率仅为22.6%|附录取论文名单
AI100
14+阅读 · 2019年3月2日
【ICLR 2019录用结果出炉】24篇Oral, 918被拒
专知
7+阅读 · 2018年12月21日
ICLR 2019论文接收结果揭晓:24篇oral论文有没有你?
机器之心
5+阅读 · 2018年12月21日
ICLR2019七大争议论文:是评审不公,还是论文真不行
新智元
4+阅读 · 2018年11月22日
ICLR 2019论文投稿近1600篇,强化学习最热门
AI100
5+阅读 · 2018年9月28日
ICLR 2018接收论文公布—“GANs 之父”Goodfellow四篇论文被接受为Poster Papers。
专知
4+阅读 · 2018年1月30日
ICLR 2018十佳论文
论智
5+阅读 · 2017年12月4日
Improving Visual Question Answering by Referring to Generated Paragraph Captions
Arxiv
7+阅读 · 2019年6月14日
Cross-lingual Knowledge Graph Alignment via Graph Matching Neural Network
Arxiv
15+阅读 · 2019年5月28日
Text Generation from Knowledge Graphs with Graph Transformers
Arxiv
35+阅读 · 2019年4月4日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Deep Graph Convolutional Encoders for Structured Data to Text Generation
Arxiv
6+阅读 · 2018年10月23日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
4+阅读 · 2018年8月23日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
A Stochastic Decoder for Neural Machine Translation
Arxiv
5+阅读 · 2018年5月28日
Inference in Probabilistic Graphical Models by Graph Neural Networks
Arxiv
3+阅读 · 2018年5月25日
Unsupervised Neural Machine Translation with Weight Sharing
Arxiv
6+阅读 · 2018年4月24日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
翻译模型
ICLR
梯度
论文
自动微分
最佳论文
相关VIP内容
自然语言处理ACL2020最佳论文出炉!微软摘得最佳论文,Bengio论文获时间检验奖
专知会员服务
44+阅读 · 2020年7月9日
【快讯】ECCV 2020论文出炉,1361篇上榜, 你的paper中了吗?
专知会员服务
56+阅读 · 2020年7月3日
近期必读的六篇顶会 ICML 2020【图神经网络 (GNN) 】相关论文
专知会员服务
142+阅读 · 2020年6月23日
【快讯】ICML 2020论文出炉,1088篇上榜, 你的paper中了吗?
专知会员服务
51+阅读 · 2020年6月1日
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
61+阅读 · 2020年1月18日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
98+阅读 · 2020年1月12日
【ICLR2020】理解非自回归机器翻译中的知识蒸馏(Understanding Knowledge Distillation in Non-autoregressive Machine Translation)
专知会员服务
10+阅读 · 2019年12月28日
【剑桥大学】神经机器翻译综述论文,Neural Machine Translation: A Review,附88页pdf
专知会员服务
35+阅读 · 2019年12月4日
【ICLR2020】五篇Open代码的GNN论文
专知会员服务
47+阅读 · 2019年10月2日
热门VIP内容
开通专知VIP会员 享更多权益服务
OpenAI十二天总结与Agent新范式
【伯克利博士论文】高效深度学习推理的全栈方法
【AAAI2025】多层次最优传输用于语言模型中的通用跨标记器知识蒸馏
大规模语言模型增强推荐系统:分类、趋势、应用与未来
相关资讯
11篇ICLR2020满分文章,来看看他们都在做什么?
专知
18+阅读 · 2019年11月7日
ICLR 2020,你的论文提供代码了吗?这届评审不好惹
专知
39+阅读 · 2019年10月15日
ICLR 2019最佳论文揭晓!NLP深度学习、神经网络压缩夺魁 | 技术头条
AI100
6+阅读 · 2019年5月6日
投稿近2000,NAACL 2019接收率仅为22.6%|附录取论文名单
AI100
14+阅读 · 2019年3月2日
【ICLR 2019录用结果出炉】24篇Oral, 918被拒
专知
7+阅读 · 2018年12月21日
ICLR 2019论文接收结果揭晓:24篇oral论文有没有你?
机器之心
5+阅读 · 2018年12月21日
ICLR2019七大争议论文:是评审不公,还是论文真不行
新智元
4+阅读 · 2018年11月22日
ICLR 2019论文投稿近1600篇,强化学习最热门
AI100
5+阅读 · 2018年9月28日
ICLR 2018接收论文公布—“GANs 之父”Goodfellow四篇论文被接受为Poster Papers。
专知
4+阅读 · 2018年1月30日
ICLR 2018十佳论文
论智
5+阅读 · 2017年12月4日
相关论文
Improving Visual Question Answering by Referring to Generated Paragraph Captions
Arxiv
7+阅读 · 2019年6月14日
Cross-lingual Knowledge Graph Alignment via Graph Matching Neural Network
Arxiv
15+阅读 · 2019年5月28日
Text Generation from Knowledge Graphs with Graph Transformers
Arxiv
35+阅读 · 2019年4月4日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Deep Graph Convolutional Encoders for Structured Data to Text Generation
Arxiv
6+阅读 · 2018年10月23日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
4+阅读 · 2018年8月23日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
A Stochastic Decoder for Neural Machine Translation
Arxiv
5+阅读 · 2018年5月28日
Inference in Probabilistic Graphical Models by Graph Neural Networks
Arxiv
3+阅读 · 2018年5月25日
Unsupervised Neural Machine Translation with Weight Sharing
Arxiv
6+阅读 · 2018年4月24日
大家都在搜
palantir
洛克菲勒
大规模语言模型
CMU博士论文
无人机系统
自主可控
无人艇
机器狗
evolution
GANLab 将GA
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top