We present the first English corpus study on abusive language towards three conversational AI systems gathered "in the wild": an open-domain social bot, a rule-based chatbot, and a task-based system. To account for the complexity of the task, we take a more `nuanced' approach where our ConvAI dataset reflects fine-grained notions of abuse, as well as views from multiple expert annotators. We find that the distribution of abuse is vastly different compared to other commonly used datasets, with more sexually tinted aggression towards the virtual persona of these systems. Finally, we report results from bench-marking existing models against this data. Unsurprisingly, we find that there is substantial room for improvement with F1 scores below 90%.


翻译:我们对“野外”收集的三种对话性人工智能系统,即开放的社交机器人、有章可循的聊天机和基于任务的系统,提出了关于滥用语言的第一份英国文体研究。考虑到任务的复杂性,我们采取了更“细致”的方法,我们的ConvAI数据集反映了细微的虐待概念以及多位专家顾问的意见。我们发现,滥用的分布与其他常用数据集大不相同,对这些系统的虚拟人物的性侵犯性色化程度更高。最后,我们报告的是用现有模型标记这些数据的现有模型的结果。奇怪的是,我们发现有相当大的改进空间,F1分数低于90%。

0
下载
关闭预览

相关内容

【微软】自动机器学习系统,70页ppt
专知会员服务
69+阅读 · 2021年6月28日
专知会员服务
31+阅读 · 2021年6月12日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
29+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
已删除
将门创投
5+阅读 · 2020年3月2日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人脸检测库:libfacedetection
Python程序员
15+阅读 · 2019年3月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
6+阅读 · 2021年7月26日
Neural Approaches to Conversational AI
Arxiv
8+阅读 · 2018年12月13日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2020年3月2日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人脸检测库:libfacedetection
Python程序员
15+阅读 · 2019年3月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员