Pre-trained language models learn socially harmful biases from their training corpora, and may repeat these biases when used for generation. We study gender biases associated with the protagonist in model-generated stories. Such biases may be expressed either explicitly ("women can't park") or implicitly (e.g. an unsolicited male character guides her into a parking space). We focus on implicit biases, and use a commonsense reasoning engine to uncover them. Specifically, we infer and analyze the protagonist's motivations, attributes, mental states, and implications on others. Our findings regarding implicit biases are in line with prior work that studied explicit biases, for example showing that female characters' portrayal is centered around appearance, while male figures' focus on intellect.


翻译:受过培训的语言模式从其培训的社团中学会了对社会有害的偏见,并可能会在一代人时重复这些偏见。我们研究了与模型产生的故事中的主角有关的性别偏见。这些偏见可以明示(“妇女不能停车 ” ) 或隐含地表达(例如,未经邀请的男性性能引导她进入停车位 ) 。我们关注隐含的偏见,并使用常识推理引擎来发现这些偏见。具体地说,我们推断和分析主角的动机、属性、精神状态和对他人的影响。我们关于隐含偏见的调查结果与以前研究明显偏见的工作是一致的,例如,表明女性角色的描述围绕外观,而男性人物则侧重于智力。

0
下载
关闭预览

相关内容

【IJCAI2021】​单样本可供性检测
专知会员服务
10+阅读 · 2021年8月27日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年11月4日
VIP会员
相关VIP内容
【IJCAI2021】​单样本可供性检测
专知会员服务
10+阅读 · 2021年8月27日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员