论文摘要: 我们提出了一个大型的可调神经会话响应生成模型DIALOGPT(对话生成预训练Transformer)。经过2005年至2017年期间从Reddit评论中提取147M大小的类似的对话内容,DialoGPT扩展了Hugging Face PyTorch transformer,在单轮对话设置中实现了在自动和人类评估性方面都接近人类。我们表明,利用DialoGPT的会话系统比基线系统生成更相关、更有内容和上下文一致的响应。预训练的模型和训练方法已经公开发布,以促进对神经响应生成的研究和更智能的open-domain对话系统的开发。

代码链接https://github.com/microsoft/DialoGPT

成为VIP会员查看完整内容
25

相关内容

计算学习理论(Computational learning theory)研究的是关于通过“计算”来进行“学习”的理论,即关于机器学习的理论基础,其目的是分析学习任务的困难本质,为学习算法提供理论保证,并根据分析结果指导算法设计。
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
文本+视觉,多篇 Visual/Video BERT 论文介绍
AI科技评论
21+阅读 · 2019年8月30日
GitHub超9千星:一个API调用27个NLP预训练模型
新智元
17+阅读 · 2019年7月22日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
4+阅读 · 2018年5月10日
VIP会员
相关VIP内容
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
微信扫码咨询专知VIP会员