SIGIR 2020 最佳论文放榜!清华大学成绩亮眼

2020 年 7 月 31 日 学术头条


ACM SIGIR 是信息检索领域的顶级学术会议,今年是第 43 届。据统计,SIGIR 2020 会议共收到投稿 1180 篇,接收 340 篇,接收率为 28.8%。其中长论文投稿 555 篇,接收 147 篇,接收率约为 26%;短文投稿 507 篇,接收 152 篇,接收率约为 30%。

从大会词云可以看出,本次会议的热点在 推荐,网络,对话,强化学习,搜索 等。


而就在昨日,大会公布了各项奖项,包括:
最佳论文奖 1
最佳论文荣誉提名奖 1
最佳短论文奖 1
最佳短论文荣誉提名奖 1
时间检验奖 1
时间检验荣誉提名奖 2


其中,来自柏林工业大学和康奈尔大学的Thorsten Joachims团队获得了最佳论文奖,共同一作是Marco Morik和Ashudeep Singh。'


清华大学在本次表现亮眼,夺得多个奖项!


最佳论文荣誉提名奖由清华大学张帆(一作)等获得。两个最佳短论文奖也都被清华大学摘取,第一作者分别是常健新和于是。值得一提的是,于是目前是大三学生,刘知远是指导老师之一。


让我们看看具体获奖的论文吧。


最佳论文


Controlling Fairness and Bias in Dynamic Ranking


作者:Marco Morik, Ashudeep Singh, Jessica Hong, Thorsten Joachims
机构:柏林工业大学,康奈尔大学
简介:排名是许多在线平台将用户与项目(如新闻、产品、音乐、视频)相匹配的主要界面。在这种双边市场中,不仅用户从排名中获得效用,而且排名还决定了物品提供者(例如出版商、卖家、艺术家、工作室)的效用(例如曝光率、收入)。已经注意到,像几乎所有学习排序算法一样,对用户的短视优化效用可能对项目提供者不公平。因此,作者提出了一种学习排名的方法,以明确执行基于价值的公平保障项目组(例如,同一出版商的文章,同一艺术家的曲目)。特别地,作者提出了一种学习算法,它可以保证摊余群体公平性的概念,同时从隐式反馈数据中学习排序函数。该算法采用控制器的形式,集成无偏估计器以兼顾公平性和实用性,并随着更多数据的可用性而动态调整两者。除了严格的理论基础和收敛保证外,作者还发现该算法具有很强的实用性和鲁棒性。
论文地址:https://www.aminer.cn/pub/5f0277e911dc830562231dbc/


最佳论文荣誉提名奖

Models Versus Satisfaction: Towards a Better Understanding of Evaluation Metrics


作者:张帆,毛佳昕,刘奕群,谢晓晖,马为之,张敏,马少平
机构:清华大学
简介:评价指标在红外系统批量评价中起着重要作用。基于描述用户如何与排名表交互的用户模型,定义了一个评价指标,将文档列表的相关性得分与系统有效性和用户满意度的估计联系起来。因此,评价指标的有效性包括两个方面:底层用户模型是否能够准确预测用户行为,以及评价指标是否与用户满意度相关。虽然已经进行了大量的工作来设计、评估和比较不同的评估指标,但很少有研究探讨这两个方面的评估指标之间的一致性。具体地说,想研究用用户行为数据进行良好校准的指标是否也能在评估用户满意度方面表现良好。为了阐明这一研究问题,作者比较了各种指标与C/W/L框架在对用户满意度进行优化以适应观察到的用户行为时的性能。在自收集和公开的用户搜索行为数据集上的实验结果表明,为适应用户点击行为而优化的指标与使用用户满意度反馈校准的指标相比,具有更好的性能。我们还研究了评估指标校准过程中的可靠性,以找出参数调整所需的数据量。本文的研究结果为用户行为建模与满意度测量之间的一致性提供了实证支持,并为优化评价指标中的参数提供了指导。
论文地址:https://www.aminer.cn/pub/5f0277e911dc830562231df7/


最佳短论文


Few-Shot Generative Conversational Query Rewriting



作者 :Shi Yu,Jiahua Liu,Jingqin Yang,Chenyan Xiong,Paul Bennet,Jianfeng Gao,Zhiyuan Liu
机构:清华大学,微软AI研究院
简介:会话查询重写的目的是将一个简洁的会话查询重新格式化为一个完全指定的、上下文无关的查询,该查询可以被现有的信息检索系统有效地处理。本文提出了一种会话查询重写的快速生成方法。作者开发了两种方法,基于规则和自监督学习,使用大量的自组织搜索会话生成弱监督数据,并对GPT-2进行微调以重写会话查询。在TREC会话辅助轨道上,弱监督GPT-2重写器仅使用非常有限的手动查询重写,将最先进的排名精度提高了12%。在零触发学习设置中,重写器仍然可以提供与以前最先进系统相当的结果。作者的分析表明,GPT-2可以有效地获取任务语法并学会捕捉上下文依赖关系,即使对于涉及组引用和长循环依赖的困难情况也是如此。
论文地址:https://www.aminer.cn/pub/5ed12ca59e795e8ab1c11566/

最佳短论文荣誉提名奖

Bundle Recommendation with Graph Convolutional Networks



作者 :常健新,高宸,何向南,金德鹏,李勇
机构:清华大学,中国科学技术大学
简介:Bundle recommendation的目的是推荐一个捆绑的项目,供用户作为一个整体消费。现有的解决方案通过共享模型参数或多任务学习的方式将用户项目交互建模集成到捆绑推荐中,无法对项目与捆绑包之间的隶属关系进行解释性建模,无法探索用户选择捆绑包时的决策问题。在这项工作中,作者提出了一个用于束推荐的图神经网络模型BGCN(bundlegraphycolutionalnetwork,简称BGCN)。BGCN将用户-项目交互、用户-捆绑-交互和捆绑-项目关联统一到一个异构图中。以项目节点为桥梁,用户和捆绑节点之间的图卷积传播使学习的表示理解项目级语义。通过基于硬阴性样本的训练,进一步区分用户对相似包的细粒度偏好。两个实际数据集的实证结果表明,BGCN具有强大的性能增益,比最先进的基线高出10.77%到23.18%
论文地址:https://www.aminer.cn/pub/5eb67f5391e011ab59e82ad7/

时间检验奖

Learning to Recommend with Social Trust Ensemble


作者:Hao Ma,Irwin King,Michael R. Lyu
机构:香港中文大学
简介:推荐系统作为信息过滤领域不可缺少的技术,近年来在学术界和工业界得到了广泛的研究和发展。然而,目前大多数推荐系统都存在以下问题:(1)用户项矩阵数据量大且稀疏,严重影响了推荐质量。因此,大多数推荐系统都无法轻松处理收视率很低的用户。(2) 传统的推荐系统假设所有的用户都是独立的、分布一致的,这种假设忽略了用户之间的联系,这与现实世界中的推荐是不一致的。为了更准确、更真实地对推荐系统进行建模,作者提出了一种新的概率因子分析框架,将用户的喜好和他们信任的朋友的偏好自然地融合在一起。在这个框架中,作者创造了社会信任集合这一术语来代表社会信任对推荐系统的限制。复杂度分析表明,本文的方法可以适用于非常大的数据集,因为它与观测值的数量成线性关系,而实验结果表明我们的方法比现有的方法有更好的性能。
论文地址:https://www.aminer.cn/pub/53e99d6cb7602d9702628665/


时间检验荣誉提名奖

1 A User Browsing Model to Predict Search Engine Click Data from Past Observations


作者:Georges Dupret,Benjamin Piwowarski
机构:雅虎研究院
简介:搜索引擎的点击日志提供了一个宝贵的相关信息来源,但这种信息是有偏见的,因为人们忽略了用户在点击之前和之后实际看到的结果列表中的哪些文档。否则,可以通过简单的计数来估计文档相关性。在本文中,作者提出了一组关于用户浏览行为的假设,允许估计文档被看到的概率,从而提供文档相关性的无偏估计。为了训练、测试并将本文的模型与文献中描述的最佳替代方案进行比较,作者收集了大量真实数据并进行了广泛的交叉验证实验。本文的解决方案非常显著地优于所有以前的模型。作为一个副作用,人们可以深入了解用户的浏览行为,并将其与Joachims等人的眼球跟踪实验的结论进行比较。[12] 一。特别是,作者的发现证实了用户几乎总是在点击文档后直接看到文档。它们还解释了为什么位于非常相关的文档之后的文档更常被单击。
论文地址:https://www.aminer.cn/pub/53e9bc27b7602d9704894740/


2 Selecting Good Expansion Terms for Pseudo-Relevance Feedback


作者:Guihong Cao,Jian-Yun Nie,Jianfeng Gao(高剑峰),Stephen Robertson
机构:蒙特利尔大学、美国雷德蒙德微软研究院和英国剑桥微软研究院。
简介:伪相关反馈假设伪反馈文档中最常用的术语对检索有用。在本研究中,作者重新检视这一假设,并指出它在现实中并不成立-许多传统方法所识别的扩充词确实与查询无关,且对检索有害。作者还发现,仅仅从反馈文档和整个集合中的分布来看,好的扩展项和坏的扩展项是无法区分的。作者建议整合一个术语分类过程来预测扩展术语的有用性。在此过程中可以集成多个附加功能。本文在三个TREC集合上的实验表明,使用术语分类可以大大提高检索效率。此外,本文还证明了好词应该直接根据其对检索效果的影响来识别,即使用监督学习,而不是无监督学习。
论文地址:https://www.aminer.cn/pub/53e9b321b7602d9703ded681/


想要查看更多学者的详细信息,可以移步 AMiner 会议智图开放平台 SIGIR 2020 专题全析图(https://www.aminer.cn/conf/sigir2020),其内容包括论文、作者、华人学者、一作华人学生、论文 PPT 和视频等多维分析服务,是参会学者的会议智能助理。



想要了解更多学术进展、前沿科技资讯,参与学术头条每日话题讨论,可以扫描二维码或搜索AMiner308添加学术君微信,对学术君说: “我想进读者群”, 即可进入读者群,不定期发福利~

点击 阅读原文 ,查看更多精彩!
喜欢本篇内容,请 分享、点赞、在看
登录查看更多
2

相关内容

IJCAI2020接受论文列表,592篇论文pdf都在这了!
专知会员服务
63+阅读 · 2020年7月16日
THUIR师生论文获WSDM 2020录用
THUIR
8+阅读 · 2019年10月11日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
2019版CCF推荐国际学术会议和期刊目录发布!AI领域七大A类会议,你认同吗?
黑龙江大学自然语言处理实验室
10+阅读 · 2019年5月1日
AAAI 2019最佳论文公布,CMU、斯坦福、MIT上榜
新智元
12+阅读 · 2019年1月28日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
VIP会员
Top
微信扫码咨询专知VIP会员