文本到图像的生成模型越来越受到公众的欢迎和广泛使用。随着这些模型的大规模部署,有必要深入研究它们的安全性和公平性,以避免传播和固化任何形式的偏见。然而,现有的研究仅聚焦于检测预先定义的封闭偏见集,这限制了对已知概念的研究。在本文中,我们应对在文本到图像生成模型中开放集偏见检测的挑战,提出了一个名为OpenBias的新流程,该流程可以在没有任何预编译集的情况下,不受限制地识别和量化偏见的严重性。OpenBias包括三个阶段。在第一阶段,我们利用一个大型语言模型(LLM)根据一组标题提出偏见。其次,目标生成模型使用同一组标题生成图像。最后,一个视觉问答模型识别先前提出的偏见的存在及其程度。我们研究了Stable Diffusion 1.5、2和XL的行为,强调以前从未研究过的新偏见。通过定量实验,我们证明OpenBias与当前封闭集偏见检测方法和人类判断一致。

成为VIP会员查看完整内容
13

相关内容

【NeurIPS2023】朝向自解释的图级异常检测
专知会员服务
27+阅读 · 2023年10月26日
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
12+阅读 · 2021年9月8日
【WSDM2021】基于演化状态图的时间序列事件预测
专知会员服务
50+阅读 · 2020年12月1日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
327+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
115+阅读 · 2023年3月24日
Arxiv
16+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】朝向自解释的图级异常检测
专知会员服务
27+阅读 · 2023年10月26日
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
12+阅读 · 2021年9月8日
【WSDM2021】基于演化状态图的时间序列事件预测
专知会员服务
50+阅读 · 2020年12月1日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员