Normals with unknown variance (NUV) can represent many useful priors and blend well with Gaussian models and message passing algorithms. NUV representations of sparsifying priors have long been known, and NUV representations of binary (and M-level) priors have been proposed very recently. In this document, we propose NUV representations of half-space constraints and box constraints, which allows to add such constraints to any linear Gaussian model with any of the previously known NUV priors without affecting the computational tractability.


翻译:具有未知差异的常态( NUV) 可以代表许多有用的前科, 并与Gaussian 模型和传递信息算法混为一谈。 NUV 的填充前科的表示方式早已为人所知, NUV 的二进制( 和 M 级) 表示方式最近才提出。 在本文件中, 我们提议 NUV 的半空限制和框限制表示方式, 从而可以在不影响计算可移动性的情况下, 将这种限制添加到任何已知的 NUV 前科线性模型中。

0
下载
关闭预览

相关内容

专知会员服务
78+阅读 · 2021年9月27日
专知会员服务
128+阅读 · 2021年8月4日
专知会员服务
110+阅读 · 2020年3月12日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
已删除
将门创投
5+阅读 · 2018年11月27日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
VIP会员
相关VIP内容
专知会员服务
78+阅读 · 2021年9月27日
专知会员服务
128+阅读 · 2021年8月4日
专知会员服务
110+阅读 · 2020年3月12日
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
已删除
将门创投
5+阅读 · 2018年11月27日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员