©PaperWeekly 原创 · 作者|HTLiu
学校|天津大学
研究方向|推荐系统
论文标题:Recurrent Memory Reasoning Network for Expert Finding in Community Question Answering
论文来源:WSDM 2020
论文链接:http://jkx.fudan.edu.cn/~qzhang/paper/wsdm500-fuA.pdf
本文拟解决的问题为社区问答(Community Question Answering),或者叫 Expert Finding。虽然名字中带有 QA,但是跟 NLP 中的问答系统不一样,CQA 是在一些问答社区网站上比如 Stackoverflow、知乎等上面,把用户提出的问题推荐给潜在熟悉该问题的回答者(answerer),从而能够使得用户快速地获得更专业的答案。
拿知乎举个例子,如下图:
之前大多数 CQA 的工作均基于文本内容相关性,即将问题与回答者回答过的历史问题集合进行相似度进行简单匹配,但是这样的方法存在一个弊端,即当一个回答者的回答过的问题与提问的问题没有直接显式联系,却包含隐式相关性,那么当前已有的模型就无法做出很好的推荐。
提问者的问题是关于如何写一篇学术论文,下面的一个候选用户并没有直接回答过类似写论文的问题。然而从该用户的历史回答问题集合中可以看出该用户其实在撰写学术论文方面还是有足够的专业知识的,因此是有能力回答该问题的。
方法
为了解决上面的挑战,本文受到 MAC(Memory, Attention, Control)门控机制的启发, 设计了一种推理记忆单元 RMC(Reasoning Memory Cells)来从建模问题文本,进而与候选用户的历史回答进行多方面推理,能够挖掘问题与用户的深度联系。
首先给出 CQA 的形式化表示:
使用 BiGRU 建模 question 文本 Q 以及用户的历史回答问题的文本集 H,其中 word embedding 部分还是结合了 subword-level 和 character-level 的 emebdding。
下面具体展开介绍,原文框架图如下:
word-level
,
subword-level
和
character-level
进行 concatenate 作为 word 最终的特征表示:
,其中 subword 使用 BPE 进行编码,character-level 直接使用 ELMo 的预训练词向量。
3.2 RMCs推理记忆单元
3.2.2 Read Unit
这里需要注意的是后面并没有使用 softmax 来 score 求归一化后的 weight,而是使用Gumbel-softmax
来得到 one-hot 的离散化的 weight。这样做的目的是为了能够找出在当前时刻,某一个历史记录与当前问题最相关,直接将该历史记录拿出来进行后续计算。
3.2.3 Write Unit
这样整个 RMC 就完成了一次更新。很多细节的内容,不过回头看,本质上,control unit 与 read unit 就是两个 Attention 模块,其中 control unit 的 attention 为了选出当前应该关注问题中的哪些词,read unit 中的 attention 则是为了找出候选用户的历史记录中哪些与问题更相关。
3.3 预测模块
在 CQA 中模型可以给出一个候选用户 list,因此实验使用 S@N(Successfule@N)也就是 recall@N 作为评价指标,即预测出的 TopN 中出现了 best answerer 即可。
首先看与 baselines 的对比实验结果,前面提到文中使用了多种的 word embedding,因此根据使用的 Embedding 类型,设置了四种模型,其中基本模型为 RMRN,表示仅仅使用了 word embedding。
加上多粒度的 word embedding 的 RMRN+sub/ELMo/Enhanced 效果就明显提高, 这个说明了模型的基本输入很重要,原因应该是在 CQA 语料中,非常多的口语化用语或者专业用语,导致 OOV 现象严重。另一方面也说明模型本身效果或许不是十分优越。
另外一个有意思的消融实验结果如下:
主要对 control unit, read unit 和 write unit 以及 predict 部分进行了 ablation study
从实验中可以看出:
每个模块对模型的性能都有一定影响。
对模型影响最大的还是预测层使用特征,三类特征都对模型有用。
read unit 中的 Gumbel-softmax 的作用也很明显,换成 softmax attention 效果下降较多。
总结
更多阅读
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。