论文摘要: 我们提出了一个大型的可调神经会话响应生成模型DIALOGPT(对话生成预训练Transformer)。经过2005年至2017年期间从Reddit评论中提取147M大小的类似的对话内容,DialoGPT扩展了Hugging Face PyTorch transformer,在单轮对话设置中实现了在自动和人类评估性方面都接近人类。我们表明,利用DialoGPT的会话系统比基线系统生成更相关、更有内容和上下文一致的响应。预训练的模型和训练方法已经公开发布,以促进对神经响应生成的研究和更智能的open-domain对话系统的开发。

代码链接https://github.com/microsoft/DialoGPT

成为VIP会员查看完整内容
28

相关内容

计算学习理论(Computational learning theory)研究的是关于通过“计算”来进行“学习”的理论,即关于机器学习的理论基础,其目的是分析学习任务的困难本质,为学习算法提供理论保证,并根据分析结果指导算法设计。
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
VIP会员
微信扫码咨询专知VIP会员