Natural Language Generation (NLG) represents a large collection of tasks in the field of NLP. While many of these tasks have been tackled well by the cross-entropy (CE) loss, the task of dialog generation poses a few unique challenges for this loss function. First, CE loss assumes that for any given input, the only possible output is the one available as the ground truth in the training dataset. In general, this is not true for any task, as there can be multiple semantically equivalent sentences, each with a different surface form. This problem gets exaggerated further for the dialog generation task, as there can be multiple valid responses (for a given context) that not only have different surface forms but are also not semantically equivalent. Second, CE loss does not take the context into consideration while processing the response and, hence, it treats all ground truths with equal importance irrespective of the context. But, we may want our final agent to avoid certain classes of responses (e.g. bland, non-informative or biased responses) and give relatively higher weightage for more context-specific responses. To circumvent these shortcomings of the CE loss, in this paper, we propose a novel loss function, CORAL, that directly optimizes recently proposed estimates of human preference for generated responses. Using CORAL, we can train dialog generation models without assuming non-existence of response other than the ground-truth. Also, the CORAL loss is computed based on both the context and the response. Extensive comparisons on two benchmark datasets show that the proposed methods outperform strong state-of-the-art baseline models of different sizes.
翻译:自然语言生成( NLG) 是在 NLP 领域大量收集的任务。 虽然许多这些任务都因交叉渗透( CE) 损失而得到了很好的处理, 但对话生成的任务对这一损失功能提出了一些独特的挑战。 首先, CE 损失假定对任何特定输入而言,唯一可能的输出是培训数据集中作为地面真相提供的输出。 一般来说, 对任何任务来说, 这样做是不真实的, 因为每个任务都可能有多重等同的语义, 每个都具有不同的表面形式。 这个问题在对话生成任务中被进一步夸大, 因为( 对于特定背景而言), 对话生成的任务可能会有多重有效的反应( 对于特定背景而言), 对话生成的任务不仅有不同的表面形式, 也给这个损失功能带来一些独特的挑战。 其次, CE 损失在处理该响应时没有考虑到背景, 因此, 它处理所有地面真相时都具有同等的重要性。 但是, 我们也许我们最终的代理可以避免某些类别的响应( 例如, 蓝度、 非强化性或偏差性反应), 并且我们对更具体的背景反应给予相对重的 。 另外的 C- 选择的 CAL 的 C 的 C 成本 损失 的 的计算 的计算, 的 的 的 的 的 的 的 的 的 的 的 也显示的 C- greal 的 C 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 。