清华、人大等机构学者获唯一最佳论文奖,数据挖掘顶会WSDM'22线上召开

2022 年 2 月 22 日 机器之心
机器之心报道
编辑:杜伟、小舟

在第 15 届 ACM 国际互联网搜索与数据挖掘大会(WSDM 2022)上,来自清华、人大和中科院计算所的研究者获得了最佳论文奖,时间检验奖花落推荐系统。



2 月 21 日至 25 日,第 15 届 ACM 国际互联网搜索与数据挖掘大会(The 15th International Conference on Web Search and Data Mining,WSDM 2022)在线上召开。

作为数据库 / 数据挖掘类的主要会议之一,WSDM 是由 ACM 所属的信息检索(SIGIR)、数据挖掘(SIGKDD)、数据库(SIGMOD)和网络信息处理(SIGWEB)四个专委会协调筹办。该会议主要发表与网络或社交网络搜索和数据挖掘相关的高质量原创论文,重点关注实用的搜索和数据挖掘新模型、算法设计和分析、经济影响以及对准确率和性能的深入实验分析。

本届 WSDM 会议共接收了 790 篇长文投稿,最终录用了 160 篇,录用率约为 20%。近日,WSDM 2022 公布了最佳论文奖和最佳论文奖亚军,其中来自清华、人大和中科院计算所的研究者获得了大会唯一的最佳论文奖。


最佳论文奖

WSDM 2022 的最佳论文奖首次授予了清华大学、人大、中科院计算所等中国科研机构研究者合作完成的论文《Learning Discrete Representations via Constrained Clustering for Effective and Efficient Dense Retrieval》。


  • 论文地址:https://arxiv.org/pdf/2110.05789.pdf

  • 作者及机构:詹靖涛(Jingtao Zhan,清华大学)、毛佳昕(Jiaxin Mao,中国人民大学)、刘奕群(Yiqun Liu,清华大学)、郭嘉丰(Jiafeng Guo,中科院计算技术研究所)、张敏(Min Zhang,清华大学)、马少平(Shaoping Ma,清华大学)


密集检索(DR)已经实现了 SOTA 排序效果。然而,大多数现有 DR 模型的效率受到一些限制,特别是存储密集向量需要大量内存成本,并且在向量空间中做最近邻搜索(NNS)非常耗时。因此,该研究提出了一种新型检索模型 RepCONC,通过约束聚类(CONstrained Clustering)学习离散表征。 

RepCONC 联合训练双编码器和乘积量化(PQ)方法来学习离散文档表征,并实现具有紧凑索引的快速近似 NNS。它将量化建模为一个受约束的聚类过程,这要求文档嵌入围绕量化质心均匀聚类,并支持量化方法和双编码器的端到端优化。

该研究从理论上证明了 RepCONC 中均匀聚类约束的重要性,并通过将其简化为最优传输问题的一个实例,为约束聚类导出了一个有效的近似解。除了约束聚类,RepCONC 进一步采用基于向量的倒排文件系统 (IVF) 来支持 CPU 上的高效向量搜索。对两个流行的 ad-hoc 检索基准进行的大量实验表明,在多种压缩比设置下,RepCONC 比其他向量量化基准实现了更好的排序效果,它在检索效率、记忆效率和时间效率方面也大大优于现有的各种检索模型。

最佳论文奖亚军

WSDM 2022 共有 3 篇论文获得最佳论文奖亚军,分别如下

论文 1:Doubly Robust Off-Policy Evaluation for Ranking Policies under the Cascade Behavior Model


  • 论文地址:https://arxiv.org/pdf/2202.01562.pdf

  • 作者及机构:Haruka Kiyohara(东京工业大学)、Yuta Saito(康奈尔大学)、Tatsuya Matsuhiro(雅虎日本公司)、Nobuyuki Shimizu(耶鲁大学)、Nobuyuki Shimizu(雅虎日本公司)、Yasuo Yamamoto(雅虎日本公司)


论文 2:Evaluating Mixed-initiative Conversational Search Systems via User Simulation


  • 论文地址:https://dl.acm.org/doi/10.1145/3488560.3498440

  • 作者及机构:Ivan Sekulic(USI,卢加诺大学)、Mohammad Aliannejadi(阿姆斯特丹大学)、Fabio Crestani(USI)


论文 3:The Datasets Dilemma: How Much Do We Really Know About Recommendation Datasets?


  • 论文地址:https://dl.acm.org/doi/10.1145/3488560.3498519

  • 作者及机构:Jin Yao Chin(南洋理工大学)、Yile Chen(南洋理工大学)、Gao Cong(南洋理工大学)


时间检验奖

本届会议的时间检验奖(Test of Time Award)授予了在 WSDM 2011 上发表的论文《Recommender Systems with Social Regularization》。


  • 论文地址:https://dennyzhou.github.io/papers/RSR.pdf

  • 作者:Hao Ma、Dengyong Zhou、Chao Liu、Michael R. Lyu、Irwin King

  • 机构:香港中文大学、微软研究院


评奖委员会评语:

推荐系统已被证明是学界和业界的一个经久不衰的研究课题。2011 年关于推荐系统的这篇论文因其重要性以及对社区的影响而被评奖委员会授予时间检验奖。该论文着眼于信任和推荐之间的深层关系,认识到用户不一定与他们信任的每个人都有相似的品味,但这种信任对于推荐至关重要。研究者通过为不同的推荐任务确定最合适的社交关系,有助于确立将社交信息纳入推荐系统的价值。因此,这篇论文具有很高的影响力,并在 WSDM 时间检验奖的所有提名论文中被引用次数最多。同时,论文也显示了对推荐中信任和透明度的重要性的远见,这已成为最近的一个重要课题。 

完整接收论文列表:https://www.wsdm-conference.org/2022/accepted-papers/
参考链接:https://www.wsdm-conference.org/2022/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
1

相关内容

网络搜索和数据挖掘国际会议(WSDM)是关于Web上的搜索和数据挖掘研究的主要会议之一。WSDM在Web和社会Web上发布与搜索和数据挖掘相关的原始的、高质量的论文,着重于搜索和数据挖掘实用而有原则的新模型、算法设计和分析、经济影响,以及对准确性和性能的深入实验分析。 官网地址:http://dblp.uni-trier.de/db/conf/wsdm/
【WSDM2022】基于约束聚类学习离散表示的高效密集检索
专知会员服务
26+阅读 · 2021年11月16日
人工智能顶会WSDM2021优秀论文奖(Best Paper Award Runner-Up)出炉
专知会员服务
25+阅读 · 2020年12月17日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
WSDM2022时间检验奖花落推荐系统
机器学习与推荐算法
1+阅读 · 2022年2月23日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
31+阅读 · 2021年6月30日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员