深度学习模型在预测失败信号方面表现不佳: 它们往往非常有把握地做出预测,这在现实世界的应用中是有问题的,比如医疗保健、自动驾驶汽车和自然语言系统,这些应用存在相当大的安全隐患,或者在训练数据和模型预测所依据的数据之间存在差异。现在迫切需要了解模型何时不应该进行预测,以及改进模型对数据中自然变化的健壮性。本教程将对深度学习中的不确定性和健壮性进行概述。也就是说,我们检查校准和非分布泛化作为关键任务。然后,我们将深入探讨有希望的途径。这包括平均多个神经网络预测的方法,如贝叶斯神经网络,集成,和高斯过程;在总体参数或预测时间效率方面处于尺度前沿的方法;以及鼓励关键的诱导偏差的方法,如数据增强。我们将这些想法建立在经验理解和理论的基础上,并通过基准和提示和技巧提供实际的建议。最后,我们强调该领域的开放挑战。

https://nips.cc/Conferences/2020/Schedule?showEvent=16649

成为VIP会员查看完整内容
49

相关内容

【NeurIPS 2020】近似推断进展,272页ppt
专知会员服务
32+阅读 · 2020年12月11日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
41+阅读 · 2020年12月10日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
(ICML 2020 Tutorial)贝叶斯深度学习与概率模型构建,134页ppt
基于深度学习的表面缺陷检测方法综述
专知会员服务
85+阅读 · 2020年5月31日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
知识分享 | 深度学习的学习路径
沈浩老师
19+阅读 · 2019年1月9日
面向深度学习的分布式文件系统
论智
5+阅读 · 2018年10月19日
L2正则化视角下的对抗样本
极市平台
7+阅读 · 2018年7月13日
Arxiv
0+阅读 · 2021年2月4日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Advances and Open Problems in Federated Learning
Arxiv
18+阅读 · 2019年12月10日
Arxiv
3+阅读 · 2019年3月15日
Arxiv
6+阅读 · 2018年10月3日
Learning to Importance Sample in Primary Sample Space
Arxiv
6+阅读 · 2018年4月21日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员