Recent studies have exploited advanced generative language models to generate Natural Language Explanations (NLE) for why a certain text could be hateful. We propose the Chain of Explanation (CoE) Prompting method, using the target group and retrieved social norms, to generate high-quality NLE for implicit hate speech. Providing accurate target information and high-quality related social norms, we improved the BLUE score from 44.0 to 62.3 for NLE generation. We then evaluate the quality of generated NLE from various automatic metrics and human annotations of informativeness and clarity scores. The correlation analysis between auto-metrics and human perceptions reveals insights into how to select suitable automatic metrics for Natural Language Generation tasks. To showcase a potential application of our proposed CoE method, we demonstrate the f1-score improvements from 0.635 to 0.655 for the implicit hate speech classification task.


翻译:最近的研究利用先进的基因化语言模型来产生自然语言解释(NLE),说明为什么某些文本可能令人憎恶。我们建议使用解释链(CoE)促进方法,利用目标群体和检索的社会规范,为隐含仇恨言论产生高质量的NLE。提供准确的目标信息和高质量的相关社会规范,我们将NLE一代的BLUE分数从44.0提高到62.3。然后,我们评估各种自动指标生成的NLE的质量,以及信息和清晰分数的人类说明。自动测量与人类认知之间的相关分析揭示了如何为天然语言一代的任务选择合适的自动指标。为了展示我们提议的欧委会方法的潜在应用,我们展示了隐含仇恨言论分类任务的F1分数从0.635提高到0.655。

0
下载
关闭预览

相关内容

自然语言工程(Natural Language Engineering)满足了自动语言处理各个领域的专业人员和研究人员的需求,无论是从理论还是语料库语言学、翻译、词典编纂、计算机科学还是工程学的角度。其目的是在传统的计算语言学研究和实际应用之间架起一座桥梁。除了出版关于广泛主题的原创研究文章——从文本分析、机器翻译、信息检索、语音处理和生成到集成系统和多模态接口——它还出版关于特定自然语言处理方法、任务或应用程序的特刊。 官网地址:http://dblp.uni-trier.de/db/journals/nle/
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年3月22日
Arxiv
0+阅读 · 2023年3月22日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员