For conversational AI and virtual assistants to communicate with humans in a realistic way, they must exhibit human characteristics such as expression of emotion and personality. Current attempts toward constructing human-like dialogue agents have presented significant difficulties. We propose Human Level Attributes (HLAs) based on tropes as the basis of a method for learning dialogue agents that can imitate the personalities of fictional characters. Tropes are characteristics of fictional personalities that are observed recurrently and determined by viewers' impressions. By combining detailed HLA data with dialogue data for specific characters, we present a dataset, HLA-Chat, that models character profiles and gives dialogue agents the ability to learn characters' language styles through their HLAs. We then introduce a three-component system, ALOHA (which stands for Artificial Learning of Human Attributes), that combines character space mapping, character community detection, and language style retrieval to build a character (or personality) specific language model. Our preliminary experiments demonstrate that two variations of ALOHA, combined with our proposed dataset, can outperform baseline models at identifying the correct dialogue responses of chosen target characters, and are stable regardless of the character's identity, the genre of the show, and the context of the dialogue.


翻译:对于对话的AI和虚拟助手以现实的方式与人类交流来说,他们必须展示人类特征,例如情感和个性表达。目前试图建设人式对话代理器的努力遇到了巨大的困难。我们提出以大字节为基础的人级属性(HLAs)作为学习对话代理器的基础,可以模仿虚构人物的个性。Trope是虚构人物的特征的特征,经常被观察,并且由观众的印象来决定。通过将详细的HLA数据与特定字符的对话数据相结合,我们提出了一个数据集,HLA-Chat,模型性格剖面图和使对话代理器能够通过他们的HLAs学习字符的风格。我们随后提出一个三个组成部分的系统,ALOHA(代表人类属性的人工学习),将字符空间映射、字符社区探测和语言样式检索结合起来,以建立个性(或个性)特定语言模型。我们的初步实验表明,ALOHA的两种变异,加上我们提议的数据集,在确定选定字符的正确对话反应时,超越了基准模型,显示目标字符的特征的准确背景和稳定的特性。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
163+阅读 · 2020年3月18日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
35+阅读 · 2021年8月2日
Arxiv
49+阅读 · 2021年5月9日
Paraphrase Generation with Deep Reinforcement Learning
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
A Multi-Objective Deep Reinforcement Learning Framework
Arxiv
5+阅读 · 2018年5月1日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
相关论文
Arxiv
14+阅读 · 2021年8月5日
Arxiv
35+阅读 · 2021年8月2日
Arxiv
49+阅读 · 2021年5月9日
Paraphrase Generation with Deep Reinforcement Learning
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
A Multi-Objective Deep Reinforcement Learning Framework
Arxiv
5+阅读 · 2018年5月1日
Top
微信扫码咨询专知VIP会员