深度学习模型不擅长发出失败信号:它们倾向于以较高的置信度进行预测,而这在现实世界的应用中是有问题的,比如医疗保健、自动驾驶汽车和自然语言系统,这些应用存在相当大的安全影响,或者在训练数据和模型预测的数据之间存在差异。现在迫切需要了解什么时候模型不应该进行预测,以及提高模型对数据自然变化的稳健性。在这次演讲中,简要介绍一下我的关于深度学习中的不确定性和鲁棒性的NeurIPS教程,然后介绍一些最近为应对这些挑战而研究的工作。