We introduce a new approach for capturing model uncertainty for neural networks (NNs) in regression, which we call Neural Optimization-based Model Uncertainty (NOMU). The main idea of NOMU is to design a network architecture consisting of two connected sub-networks, one for the model prediction and one for the model uncertainty, and to train it using a carefully designed loss function. With this design, NOMU can provide model uncertainty for any given (previously trained) NN by plugging it into the framework as the sub-network used for model prediction. NOMU is designed to yield uncertainty bounds (UBs) that satisfy four important desiderata regarding model uncertainty, which established methods often do not satisfy. Furthermore, our UBs are themselves representable as a single NN, which leads to computational cost advantages in applications such as Bayesian optimization. We evaluate NOMU experimentally in multiple settings. For regression, we show that NOMU performs as well as or better than established benchmarks. For Bayesian optimization, we show that NOMU outperforms all other benchmarks.


翻译:我们引入了一种新的方法来捕捉神经网络在回归中的模型不确定性,我们称之为神经优化模型不确定性。NOMU的主要想法是设计一个由两个连接的子网络组成的网络结构,一个网络用于模型预测,一个网络用于模型不确定性,一个网络用于模型不确定性,另一个网络用于模型不确定性,并使用精心设计的损失函数对其进行培训。有了这一设计,NOMU可以作为用于模型预测的子网络插入给定的(以前受过训练的)NNN(作为用于模型预测的子网络)的框架,为任何给定的(过去受过训练的)NW提供模型不确定性。NOMU旨在产生四个重要的不确定性(UBs),在模型不确定性方面满足四个重要的偏差,而已经确立的方法往往无法满足。此外,我们的UBs本身可以作为一个单一的NNW,从而导致在诸如Bayesian优化等应用中计算成本优势。我们在多个环境中对NOMU进行实验性评估。关于回归,我们显示NOMU的表现与或比既定基准要好。关于Bayesian优化,我们展示NOMU高于所有其他基准。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
专知会员服务
161+阅读 · 2020年1月16日
已删除
将门创投
3+阅读 · 2019年1月8日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
6+阅读 · 2018年2月28日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年1月8日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员