论文摘要: 我们提出了一个大型的可调神经会话响应生成模型DIALOGPT(对话生成预训练Transformer)。经过2005年至2017年期间从Reddit评论中提取147M大小的类似的对话内容,DialoGPT扩展了Hugging Face PyTorch transformer,在单轮对话设置中实现了在自动和人类评估性方面都接近人类。我们表明,利用DialoGPT的会话系统比基线系统生成更相关、更有内容和上下文一致的响应。预训练的模型和训练方法已经公开发布,以促进对神经响应生成的研究和更智能的open-domain对话系统的开发。