扩散模型(DMs)已经成为具有前所未有的图像生成能力的强大生成模型。这些模型广泛用于数据增强和创意应用。然而,DMs反映了训练数据集中存在的偏见。在面部图像的上下文中,这一点尤其令人关注,其中DM倾向于偏好某一人口亚群而不是其他亚群(例如,女性对比男性)。在这项工作中,我们提出了一种不依赖额外数据或模型重新训练的去偏差DMs的方法。具体来说,我们提出了分布指导,这种方法强制生成的图像遵循预设的属性分布。为了实现这一点,我们建立在一个关键见解上,即去噪UNet的潜在特征包含丰富的人口统计学语义,同样可以被利用来指导无偏差的生成。我们训练了属性分布预测器(ADP)-一个小型的多层感知机(mlp),它将潜在特征映射到属性的分布上。ADP是通过从现有属性分类器生成的伪标签训练的。提出的分布指导与ADP使我们能够进行公平生成。我们的方法减少了单个/多个属性的偏见,并且在无条件和文本条件扩散模型的基准测试中以显著的优势超越了基线。此外,我们提出了一个下游任务,通过使用我们生成的数据重新平衡训练集来训练一个公平的属性分类器。

成为VIP会员查看完整内容
21

相关内容

【WWW2024】重新思考大规模图学习中的节点式传播
【AAAI2024】公平感知的Transformer模型结构剪枝
专知会员服务
42+阅读 · 2023年12月27日
【NeurIPS2023】稀疏保留的差分隐私大型嵌入模型训练
专知会员服务
14+阅读 · 2023年11月18日
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
25+阅读 · 2023年6月1日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
36+阅读 · 2022年10月4日
【AAAI2022】基于图神经网络的统一离群点异常检测方法
专知会员服务
27+阅读 · 2022年2月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关VIP内容
【WWW2024】重新思考大规模图学习中的节点式传播
【AAAI2024】公平感知的Transformer模型结构剪枝
专知会员服务
42+阅读 · 2023年12月27日
【NeurIPS2023】稀疏保留的差分隐私大型嵌入模型训练
专知会员服务
14+阅读 · 2023年11月18日
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
25+阅读 · 2023年6月1日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
36+阅读 · 2022年10月4日
【AAAI2022】基于图神经网络的统一离群点异常检测方法
专知会员服务
27+阅读 · 2022年2月12日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Arxiv
11+阅读 · 2018年7月31日
微信扫码咨询专知VIP会员