In this paper, we present ChatPLUG, a Chinese open-domain dialogue system for digital human applications that instruction finetunes on a wide range of dialogue tasks in a unified internet-augmented format. Different from other open-domain dialogue models that focus on large-scale pre-training and scaling up model size or dialogue corpus, we aim to build a powerful and practical dialogue system for digital human with diverse skills and good multi-task generalization by internet-augmented instruction tuning. To this end, we first conduct large-scale pre-training on both common document corpus and dialogue data with curriculum learning, so as to inject various world knowledge and dialogue abilities into ChatPLUG. Then, we collect a wide range of dialogue tasks spanning diverse features of knowledge, personality, multi-turn memory, and empathy, on which we further instruction tune \modelname via unified natural language instruction templates. External knowledge from an internet search is also used during instruction finetuning for alleviating the problem of knowledge hallucinations. We show that \modelname outperforms state-of-the-art Chinese dialogue systems on both automatic and human evaluation, and demonstrates strong multi-task generalization on a variety of text understanding and generation tasks. In addition, we deploy \modelname to real-world applications such as Smart Speaker and Instant Message applications with fast inference. Our models and code will be made publicly available on ModelScope~\footnote{\small{https://modelscope.cn/models/damo/ChatPLUG-3.7B}} and Github~\footnote{\small{https://github.com/X-PLUG/ChatPLUG}}.


翻译:在本文中,我们提出了ChatPLUG,这是一种用于数字人类应用的中文开放域对话系统,其指令通过统一的互联网辅助格式在广泛的对话任务中进行细调。与其他专注于大规模预训练和模型规模或对话语料库的缩放的开放域对话模型不同,我们旨在通过互联网辅助指导调优构建一个功能强大且实用的数字人类对话系统,具备多样的技能和良好的多任务概括性。为此,我们首先对常用文档语料库和对话数据进行了大规模的预训练,并采用课程学习的方式向ChatPLUG注入各种世界知识和对话能力。然后,我们收集了涵盖多种知识,个性,多回合记忆和移情等不同特点的广泛对话任务,通过统一的自然语言指令模板进一步指导调优\modelname。在指导调优期间还使用了互联网搜索的外部知识来缓解知识幻觉的问题。我们表明,\modelname在自动和人类评估方面优于最先进的中文对话系统,并在各种文本理解和生成任务中展现出强大的多任务概括性。此外,我们快速部署了\modelname以用于实际应用,例如智能音箱和即时消息应用程序。我们的模型和代码将在ModelScope\footnote{\small{https://modelscope.cn/models/damo/ChatPLUG-3.7B}}和Github\footnote{\small{https://github.com/X-PLUG/ChatPLUG}}上公开发布。

2
下载
关闭预览

相关内容

揭秘ChatGPT情感对话能力
专知会员服务
56+阅读 · 2023年4月9日
揭秘ChatGPT情感对话能力
专知
15+阅读 · 2023年4月9日
打开模型Zero-Shot新范式:Instruction Tuning
PaperWeekly
2+阅读 · 2022年8月25日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
【Github】GPT2-Chinese:中文的GPT2训练代码
AINLP
52+阅读 · 2019年8月23日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
揭秘ChatGPT情感对话能力
专知会员服务
56+阅读 · 2023年4月9日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员