新智元报道
来源:huyenchip.com
作者:Chip Huyen 编辑:小芹
2.1 使用贝叶斯原理进行深度学习
2.2 图神经网络
2.3 凸优化
解构深度学习的黑盒子
Learning and Generalization in Overparameterized Neural Networks, Going Beyond Two Layers
On the Inductive Bias of Neural Tangent Kernels
What Can ResNet Learn Efficiently, Going Beyond Kernels?
Limitations of Lazy Training of Two-layers Neural Network
备受瞩目的深度学习新方法:贝叶斯深度学习、GNN、凸优化
Importance Weighted Hierarchical Variational Inference
A Simple Baseline for Bayesian Uncertainty in Deep Learning
Practical Deep Learning with Bayesian Principles
Exact Combinatorial Optimization with Graph Convolutional Neural Networks
Graph Neural Tangent Kernel: Fusing Graph Neural Networks with Graph Kernels
(Nearly) Efficient Algorithms for the Graph Matching Problem on Correlated Random Graphs
Thomas N. Kipf’s Graph Convolutional Networks blog post
Kung-Hsiang, Huang’s A Gentle Introduction to Graph Neural Networks (Basics, DeepWalk, and GraphSage)
Acceleration via Symplectic Discretization of High-Resolution Differential Equations
Hamiltonian descent for composite objectives
神经科学x机器学习
NeurIPS关键词分析
强化学习甚至在机器人技术之外的领域也越来越流行。有显著正变化的关键词有bandit、feedback、regret、control。
生成模型仍然很流行。GAN仍然吸引着我们的想象力,但远没有2018年那么夸张。
递归神经网络和卷积神经网络关注度下降。
硬件关键词也在上升,标志着更多的硬件感知算法。这是对硬件是机器学习瓶颈这一担忧的回答。
我很遗憾“数据”这个关键词在下降。
Meta这个关键词今年增幅最大。
数字看NeurIPS
大会收到7k篇论文。1428篇被接收。录取率为21%。
13000名与会者,据我估计,这意味着至少有一半的与会者没有提交论文。
57个workshop,4个侧重于:AI领域的黑人、机器学习领域的女性、AI领域的拉丁裔、机器学习中的新事物、全民机器学习竞赛。
16000页的会议论文集。
在所有录取论文中,有12%的论文至少有一位作者来自Google或Deepmind。
有87篇论文来自斯坦福大学,使其成为发表论文最多的学术机构。
250篇论文是关于应用的,占16.7%。
获得经典论文奖的微软华人学者Lin Xiao的论文“正则化双重平均算法(RDA)”截止到2019年12月的被引数是648。这证明了引用计数和贡献不一定相关。
75%的论文有代码链接,而去年只有50%。
2255条评论提到了查看提交时的代码。
173篇论文声称对OpenReview的进行了“可重复性挑战”。
31篇在NeurIPS创意设计机器学习研讨会上的海报。有好几个人告诉我这是他们最喜欢的部分。
总结