深度学习模型不擅长发出失败信号:它们倾向于以较高的置信度进行预测,而这在现实世界的应用中是有问题的,比如医疗保健、自动驾驶汽车和自然语言系统,这些应用存在相当大的安全影响,或者在训练数据和模型预测的数据之间存在差异。现在迫切需要了解什么时候模型不应该进行预测,以及提高模型对数据自然变化的稳健性。在这次演讲中,简要介绍一下我的关于深度学习中的不确定性和鲁棒性的NeurIPS教程,然后介绍一些最近为应对这些挑战而研究的工作。

成为VIP会员查看完整内容
34

相关内容

通俗易懂!MIT《深度强化学习》课程,附Slides与视频
专知会员服务
68+阅读 · 2022年4月24日
《图神经网络导论》视频报告,CMU-Minji Yoon主讲
专知会员服务
49+阅读 · 2022年3月8日
【NeurIPS 2020】深度学习的不确定性估计和鲁棒性
专知会员服务
49+阅读 · 2020年12月8日
如何轻松部署设备端音频机器学习?
TensorFlow
0+阅读 · 2021年10月8日
2019最新-UC Berkeley-《深度学习入门课程》分享
深度学习与NLP
13+阅读 · 2019年3月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Advances and Open Problems in Federated Learning
Arxiv
18+阅读 · 2019年12月10日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员