Text matching is a fundamental technique in both information retrieval and natural language processing. Text matching tasks share the same paradigm that determines the relationship between two given texts. The relationships vary from task to task, e.g.~relevance in document retrieval, semantic alignment in paraphrase identification and answerable judgment in question answering. However, the essential signals for text matching remain in a finite scope, i.e.~exact matching, semantic matching, and inference matching. Ideally, a good text matching model can learn to capture and aggregate these signals for different matching tasks to achieve competitive performance, while recent state-of-the-art text matching models, e.g.~Pre-trained Language Models (PLMs), are hard to generalize. It is because the end-to-end supervised learning on task-specific dataset makes model overemphasize the data sample bias and task-specific signals instead of the essential matching signals. To overcome this problem, we adopt a specialization-generalization training strategy and refer to it as Match-Prompt. In specialization stage, descriptions of different matching tasks are mapped to a few prompt tokens. In generalization stage, matching model explores the essential matching signals by being trained on diverse matching tasks. High diverse matching tasks avoid model fitting the data bias on a specific task, so that model can focus on learning the essential matching signals. Meanwhile, the prompt tokens obtained in the first step help the model distinguish different task-specific matching signals. Experimental results on public datasets show that Match-Prompt can improve multi-task generalization capability of PLMs in text matching and yield better in-domain multi-task, out-of-domain multi-task and new task adaptation performance than multi-task and task-specific models trained by previous fine-tuning paradigm.
翻译:文本匹配是信息检索和自然语言处理中的一种基本技术。 文本匹配任务可以共享决定两个指定文本之间关系的相同模式。 关系因任务而异, 例如: 文件检索、 参数识别中的语义匹配和可回答的判断回答中的语义匹配。 然而, 文本匹配的基本信号仍然处于有限的范围, 即 ~ 精确匹配、 语义匹配和推论匹配。 理想的情况是, 良好的文本匹配模式可以学习为不同匹配任务获取和汇总这些信号, 以达到竞争性业绩, 而最近最先进的文本匹配模式, 例如: ~ 预先培训的语言模型( PLMS) 很难概括化。 这是因为, 最终到最后监督的对特定任务数据集的学习使得模型过分强调数据样本先前的偏差和任务特定的信号, 而不是基本的匹配信号信号。 为了克服这一问题, 我们采用了专业化模式培训战略, 并称之为匹配- Prompt 。 在专业化阶段, 不同的匹配任务描述会绘制一些提示的信号, 例如: 预选的多功能将特定模型匹配任务在特定任务中, 高级测试特定任务在特定任务中, 将特定任务在特定任务中 高级任务中进行 将特定任务 更新 。 在普通任务中, 高级任务中, 将特定任务 将特定任务 将特定任务在特定任务 将特定任务 匹配 将特定任务 匹配 将特定任务在特定任务在特定任务在普通任务中, 在普通任务中, 在普通任务中, 在普通任务中, 在普通任务中, 更新任务中, 在普通任务中, 更新任务中, 将特定任务中, 更新任务中, 将 将 更新任务 将 更新 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 将 匹配 将 将 将 匹配 匹配 匹配 将 将 将