The significant advancements in applying Artificial Intelligence (AI) to healthcare decision-making, medical diagnosis, and other domains have simultaneously raised concerns about the fairness and bias of AI systems, particularly in areas like healthcare, employment, criminal justice, and credit scoring. Such systems can lead to unfair outcomes and perpetuate existing inequalities. This survey paper offers a succinct, comprehensive overview of fairness and bias in AI, addressing their sources, impacts, and mitigation strategies. We review sources of bias, such as data, algorithm, and human decision biases, and assess the societal impact of biased AI systems, focusing on the perpetuation of inequalities and the reinforcement of harmful stereotypes. We explore various proposed mitigation strategies, discussing the ethical considerations of their implementation and emphasizing the need for interdisciplinary collaboration to ensure effectiveness. Through a systematic literature review spanning multiple academic disciplines, we present definitions of AI bias and its different types, and discuss the negative impacts of AI bias on individuals and society. We also provide an overview of current approaches to mitigate AI bias, including data pre-processing, model selection, and post-processing. Addressing bias in AI requires a holistic approach, involving diverse and representative datasets, enhanced transparency and accountability in AI systems, and the exploration of alternative AI paradigms that prioritize fairness and ethical considerations. This survey contributes to the ongoing discussion on developing fair and unbiased AI systems by providing an overview of the sources, impacts, and mitigation strategies related to AI bias.


翻译:在将人工智能(AI)应用于医疗决策、医学诊断和其他领域方面取得的重大进展同时,人们也普遍关注AI系统的公平性和偏见问题,特别是在医疗保健、就业、刑事司法和信用评分等领域。这些系统可能导致不公平的结果并延续现有的不平等现状。本调查论文提供了公平与偏见问题的简要且全面的概述,涉及来源、影响和缓解策略。我们审查了偏见的来源,例如数据、算法和人类决策偏见,并评估了偏见性AI系统的社会影响,重点关注不平等现象的延续以及有害刻板印象的强化。我们探讨了各种提出的缓解策略,讨论了实施策略的伦理考虑,并强调需要跨学科合作以确保效果。通过涵盖多个学科的系统文献综述,我们提出了AI偏见及其不同类型的定义,并讨论了AI偏见对个人和社会的负面影响。我们还提供了当前缓解AI偏见的方法概述,包括数据预处理、模型选择和后处理。解决AI偏见问题需要综合治理,包括具有多样性和代表性的数据集,增强AI系统的透明度和责任感,并探索优先考虑公平和伦理考虑的替代AI范例。本综述提供了有关AI偏见相关的来源、影响和缓解策略的概述,为开发公平和无偏见的AI系统的持续讨论做出了贡献。

0
下载
关闭预览

相关内容

人工智能和军备控制,80页pdf
专知
7+阅读 · 2022年11月2日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年6月1日
Arxiv
38+阅读 · 2021年8月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员