NeurIPS 2022 Oral | 基于最优子集的神经集合函数学习方法EquiVSet

2022 年 11 月 28 日 机器之心

机器之心专栏

机器之心编辑部

腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。


集合函数被广泛应用于各种场景之中,例如商品推荐、异常检测和分子筛选等。在这些场景中,集合函数可以被视为一个评分函数:其将一个集合作为输入并输出该集合的分数。我们希望从给定的集合中选取出得分最高的子集。鉴于集合函数的广泛应用,如何学习一个适用的集合函数是解决许多问题的关键。为此,腾讯 AI Lab、帝国理工与中山大学合作发表论文《Learning Neural Set Functions Under the Optimal Subset Oracle》,提出基于最优子集的集合函数学习方法。该方法在多个应用场景中取得良好效果。论文已被 NeurIPS 2022 接收并选为口头报告(Oral Presentation)。


  • 论文地址:https://arxiv.org/abs/2203.01693

  • 代码地址:https://github.com/SubsetSelection/EquiVSet


一、引言


很多现实应用场景与集合密切相关,例如推荐系统、异常检测和分子筛选等。这些应用都潜在地学习了一个集合函数来评价给定集合的得分,使得输出的集合拥有最高得分。以商品推荐为例子(如下图所示),我们希望从某个网店的商品库V中推荐子集,使得用户对该商品子集拥有最高评分


图 1 集合函数学习在商品推荐中的例子


具体地,我们假设每个用户心中存在一个评分函数,该函数将一个商品子集作为输入,输出用户对该子集的评分,即用户总是从系统推荐的商品集合中购买得分最高的商品子集:



我们希望学习一个函数,使其尽可能逼近真正的评分函数. 然而在实际应用场景,由于标注成本过高,我们无法得到用户对每一个商品子集的评分。因此,我们假设数据集的形式为,其中为用户i购买的商品子集,为对应的商品库。我们希望找到合适的参数, 使得用户购买的商品最大化集合函数


然而找到合适的参数并不是一件容易的事情。为此,我们将目标函数定义为最大似然估计



其中我们通过的正比约束使得最终学习到的集合函数满足上文的要求。进一步地,我们希望该概率分布及由此推导的训练方法满足若干的性质,如:置换不变性、最小先验假设和可扩展性(scalability)等。


在本文中,我们提出了等变变分集合函数学习方法 (Equivariant Variational inference for Set function learning. EquiVSet). 具体地,我们使用能量模型(energy-based models)建模概率能量模型是最大熵分布,满足最小先验假设。其次,我们通过 DeepSet 类型的模型架构建模集合函数,使其满足置换不变性;最后我们使用均摊变分分布来满足可扩展性的要求。实验证明,EquiVSet 在商品推荐、异常检测和分子筛选等现实应用场景中都有出色表现。值得一提的是,虽然传统的端到端子集预测模型也适用于以上场景,但是他们通常属于黑盒模型。在本文中,我们显式建模集合函数,并通过最大化集合函数来进行子集预测。学习的集合函数可用来评价不同子集的效益,因此更具有可解释性。

二、方法简介


图 2 EquiVSet 训练和推理过程概览


我们首先将概率模型定义为能量模型:, 并用 DeepSet 架构对能量函数进行建模,从而实现置换不变性。此外,由于能量模型为最大熵分布,其具有最小信息先验假设的特点。为了训练该模型,我们进一步引入了变分分布, 并通过神经网络对其进行建模。如图 2 所示,模型训练包含两个步骤:


1. 为了学习变分,我们可以最小化之间的 KL 距离。

2. 为了训练模型,我们首先通过神经网络 EquiNet 输出变分分布的初始参数, 然后通过平均场变分推断来更新变分参数,使其逼近模型分布此外,该步骤可以让模型参数依赖于变分参数因此我们可以通过最小化交叉熵损失来更新模型参数.

模型通过反复迭代步骤 1 和 2 来更新参数, 从而达到合作式训练变分网络 EquiNet 和能量网络的目的。这种合作学习方式的效果可以通过图 3 形象示意:在每轮迭代中,我们通过均摊变分推断来更新变分分布的参数,使其不断逼近模型参数更新完毕后,我们通过最小化交叉熵损失来训练模型,使其不断逼近真实数据分布模型训练完毕后,近似地成立,因此我们可以根据变分参数来选取最优子集。值得注意的是, 算法角度来说, 简单使用端到端子集预测模型相当于只建模了变分网络 EquiNet, 即只建模了变分分布, 因此无法达到合作学习的目的。  我们后续的实验部分也验证了这种端到端子集预测方法的性能与合作学习方法 EquiVSet 相差甚远。  

图 3 EquiVSet 参数更新示意图


三、实验结果


为了验证 EquiVSet 的有效性,我们在三个任务上进行测试:商品推荐、异常检测和分子筛选。


1. 在商品推荐任务中,我们使用 amazon baby register dataset,该数据集包含了真实的用户购买记录。在该任务上,EquiVSet 在大部分场景中都取得最佳性能。具体地,相比于先前的 SOTA 算法 PGM,EuiVSet 的性能平均提升 33%。相比于传统的黑盒端到端子集预测方法 DeepSet(NoSetFn)(该方法相当于仅建模了变分网络 EquiNet),EquiVSet 的性能平均提升 39%,说明了显式建模集合函数的重要性。



2. 在异常检测任务中,我们使用四个经典数据集:double mnist,celebA,fashion-mnist 和 cifar-10。下图给出了 celebA 上异常检测的例子。


图 3 celebA 数据集。每一行是一个数据样本。在每个样本中,正常图片拥有两个共同属性(最右列),异常图片(红色方框)没有该属性。


以下表格提供不同方法在该任务上的性能对比,可以看出 EquiVSet 显著优于其他方法, 并比 PGM 和 DeepSet(NoSetFn) 的性能分别平均提高 37% 和 80%。


 

3. 在分子筛选中,我们使用 PDBBind 和 BindingDB 两个经典数据。该任务是从给定的分子库中,筛选出符合一定属性的分子。下表是 EquiVSet 和各个方法的对比结果。


四、结论


本文提出的基于最优子集的集合函数学习方法。通过将集合概率定义成能量模型,使得模型满足置换不变性、最小先验等特点。借助最大似然方法和等变变分技巧,模型能够高效地训练和推理。在商品推荐、异常检测和分子筛选上的应用认证了该方法的有效性。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
0

相关内容

【NeurIPS2022】隐空间变换解决GAN生成分布的非连续性问题
专知会员服务
24+阅读 · 2022年11月30日
CVPR 2022 Oral | 基于熵筛选的半监督三维旋转回归
专知会员服务
16+阅读 · 2022年4月18日
【NeurIPS 2021】基于次模优化的规则学习算法框架
专知会员服务
33+阅读 · 2021年11月30日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
53+阅读 · 2021年3月31日
专知会员服务
27+阅读 · 2020年10月24日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
专知会员服务
44+阅读 · 2020年10月5日
【元图(Meta-Graph):元学习小样本连接预测】
专知会员服务
62+阅读 · 2020年5月31日
ICLR 2022最佳论文:基于对比消歧的偏标签学习
PaperWeekly
0+阅读 · 2022年8月1日
去伪存真:因果约束下的图神经网络泛化
PaperWeekly
0+阅读 · 2022年2月10日
SIGIR2021 | 基于排序的推荐系统度量优化新视角
机器学习与推荐算法
1+阅读 · 2021年12月6日
SIGIR 2021 | 推荐系统中的多行为建模
PaperWeekly
1+阅读 · 2021年10月9日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年2月2日
Arxiv
0+阅读 · 2023年1月31日
Arxiv
0+阅读 · 2023年1月27日
VIP会员
相关VIP内容
【NeurIPS2022】隐空间变换解决GAN生成分布的非连续性问题
专知会员服务
24+阅读 · 2022年11月30日
CVPR 2022 Oral | 基于熵筛选的半监督三维旋转回归
专知会员服务
16+阅读 · 2022年4月18日
【NeurIPS 2021】基于次模优化的规则学习算法框架
专知会员服务
33+阅读 · 2021年11月30日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
53+阅读 · 2021年3月31日
专知会员服务
27+阅读 · 2020年10月24日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
专知会员服务
44+阅读 · 2020年10月5日
【元图(Meta-Graph):元学习小样本连接预测】
专知会员服务
62+阅读 · 2020年5月31日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员