随着越来越多的优化和人工智能(AI)方法用于辅助高风险的现实生活决策,公平已经成为这些工具的设计者和用户考虑的一个基本因素。本文研究的是制定、实现和引出公平的新途径。第一章通过优化模型研究公平与效率的平衡。我们提出新的社会福利函数(SWFs)作为罗尔斯法则公平性和功利主义两大著名标准的综合衡量。然后,我们设计了一个程序,用混合整数/线性规划模型顺序地最大化这些SWFs,以找到社会最优解。该方法具有广泛的资源分配应用的实际潜力,并在医疗保健提供和灾害准备避难所分配的实际规模应用中得到了证明。第二章考虑了一个由公平机器学习驱动的优化任务。在开发公平的ML算法时,了解公平的计算代价与标准的不公平设置相比是很有用的。对于利用优化模型进行训练的公平ML方法,专门的优化算法可能比通用求解器提供更好的计算性能。在本章中,我将探讨支持向量机(SVM)的这个问题,并设计块坐标下降型算法来训练包含线性公平性约束的SVM。数值实验表明,在训练公平支持向量机方面,新的专门算法比现成的求解器更有效。
第三章探讨了优化作为人工智能系统中基于福利的公平正式化的一般范式。与公平人工智能中常用的统计偏差指标相反,优化社会福利目标支持基于分配正义考虑的更广泛的公平视角。我们提出了社会福利优化和人工智能,特别是机器学习之间的处理中和处理后的集成方案。我们以按揭贷款处理为动机,进行个案研究,以评估整合方案的有效性。接下来的两章探讨了以人为中心的观点,以引出人们的公平偏好,即了解在不同的决策环境下人们认为什么是公平。第四章从揭示的偏好出发,研究了基于在线学习(OL)的一般偏好学习框架:学习者在变化的环境中通过相互作用学习代理的私人效用函数。通过设计一个新的凸损失函数,我们设计了一个灵活的OL框架,可以统一处理文献中常见的损失函数,并支持各种在线凸优化算法。该框架在后悔性能和求解时间方面优于文献中的其他OL算法。最后,第五章研究了资源顺序配置过程中人们动态伦理判断的建模和引出问题。我们利用马尔可夫决策过程(MDP)模型来表示顺序分配任务,其中国家奖励捕获了人们的道德偏好,从而人们的道德判断通过政策奖励反映出来。我们设计了一个偏好推理模型,它依赖于基于主动偏好的奖励学习来推断未知的奖励函数。将该学习框架应用于Amazon Mechanical Turk的人-被试实验,以理解人们在分配稀缺医疗资源的假设情景下的道德推理。