标准的深度学习和物理启示学习的不确定性量化方法持续存在局限性。例如,需要对数据似然性做出强假设,性能高度依赖先验选择,而后验只能近似采样,由于相关的计算成本,导致了差的近似。本文介绍并研究了作为一个新问题的确定性偏微分方程的置信区间(CI)估计。即,以概率保证的形式,从数据位置将置信度传播到整个域。我们提出了一种方法,称为物理启示置信传播(PICProp),基于双层优化来计算有效的CI,无需做出重大假设。我们提供了关于我们方法有效性的定理,以及计算实验,重点是物理启示学习。代码可在 https://github.com/ShenQianli/PICProp 获取。

成为VIP会员查看完整内容
19

相关内容

【NeurIPS2023】朝向自解释的图级异常检测
专知会员服务
29+阅读 · 2023年10月26日
【AAAI2023】用于图对比学习的谱特征增强
专知会员服务
17+阅读 · 2022年12月11日
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
19+阅读 · 2021年12月21日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
37+阅读 · 2021年4月25日
【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年12月1日
Arxiv
0+阅读 · 2023年11月29日
Arxiv
0+阅读 · 2023年11月28日
Arxiv
0+阅读 · 2023年11月28日
Arxiv
155+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
395+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【NeurIPS2023】朝向自解释的图级异常检测
专知会员服务
29+阅读 · 2023年10月26日
【AAAI2023】用于图对比学习的谱特征增强
专知会员服务
17+阅读 · 2022年12月11日
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
19+阅读 · 2021年12月21日
专知会员服务
40+阅读 · 2021年6月10日
专知会员服务
37+阅读 · 2021年4月25日
【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
0+阅读 · 2023年12月1日
Arxiv
0+阅读 · 2023年11月29日
Arxiv
0+阅读 · 2023年11月28日
Arxiv
0+阅读 · 2023年11月28日
Arxiv
155+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
395+阅读 · 2023年3月31日
微信扫码咨询专知VIP会员