从数据中纯粹发现因果模型的结构面临可识别性问题。

通常情况下,如果没有关于数据生成的假设,多个等效模型可能会同样解释观察结果,尽管它们可能会得出截然不同的因果结论。因此,选择它们中的任意一个元素可能会导致不安全的决策,特别是在这些模型与世界真实运作方式不一致时。因此,在数据有限的情况下,必须保持一种关于我们可能候选模型的认知不确定性,以减轻这些不匹配模型所带来的风险。 从贝叶斯的角度来看,这种不确定性可以通过给定数据的模型后验分布来捕捉。

然而,正如贝叶斯推断中的许多问题一样,由于可能的结构数量庞大(这些结构通常表示为有向无环图,DAG),后验分布通常是不可解的。因此,需要进行近似。尽管过去十年中,生成建模领域取得了显著进展,尤其是由变分推断和深度学习强力结合推动的进展,但大多数这些模型都集中于连续空间,使得它们不适用于涉及离散对象(如有向图)的问题,因为这些对象存在高度复杂的无环性约束。 在本论文的第一部分,我们介绍了生成流网络(GFlowNet),一种专门为离散和组合对象(如图)上的分布而设计的新型概率模型。

GFlowNet将生成过程视为一个顺序决策问题,通过逐步构建样本来生成数据。这些模型通过在网络中强制执行某些流量的守恒,来描述通过一个归一化常数定义的分布。我们将重点介绍它们如何根植于机器学习和统计学的各个领域,包括变分推断和强化学习,并讨论它们在一般空间中的扩展。 在本论文的第二部分,我们展示了如何利用GFlowNet来近似给定数据的贝叶斯网络的DAG结构的后验分布。

不仅仅是结构,我们还展示了条件分布的参数也可以被集成到由GFlowNet近似的后验中,从而允许对贝叶斯网络进行灵活的表示。 关键词:生成流网络,贝叶斯推断,结构学习,贝叶斯网络,强化学习,变分推断

成为VIP会员查看完整内容
1

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【博士论文】统计学习中的可靠不确定性量化,128页pdf
专知会员服务
45+阅读 · 2023年11月23日
《多智能体系统中的目标管理》莱特州立大学博士论文
专知会员服务
68+阅读 · 2022年11月25日
【MIT博士论文】机器学习中的稀疏性:理论与应用,122页pdf
【博士论文】开放环境下的度量学习研究
专知会员服务
49+阅读 · 2021年12月4日
【MIT博士论文】数据高效强化学习,176页pdf
最新《图嵌入组合优化》综述论文,40页pdf
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
相关论文
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
10+阅读 · 2020年11月26日
微信扫码咨询专知VIP会员