随着自主系统日益渗透到关键社会领域,确保人工智能(AI)的负责任使用已成为当务之急。然而,“可信AI”这一概念依然广泛且多维。本论文在AI系统的安全性、公平性、透明性与可问责性方面推进了相关研究。 在安全性方面,我们扩展了经典的确定性屏蔽技术,使其具备对延迟观测的鲁棒性,从而支持在现实世界条件下的实际部署。同时,我们将确定性与概率性安全屏蔽机制应用于仿真自动驾驶车辆,以防止与道路使用者发生碰撞,并在逼真的驾驶模拟环境中验证了这些技术的有效性。 在公平性方面,我们提出了“公平性屏蔽”(fairness shields)这一新颖的后处理方法,用于在有限或周期性时间范围内的序贯决策场景中强制实现群体公平。该方法在严格满足公平性约束的前提下,优化干预成本,实现在最小干预下的公平性保障。 针对透明性与可问责性,我们提出了一个评估概率性决策智能体意图行为的形式化框架,并引入了智能体性指标(agency)与意图商(intention quotient)等定量度量。我们利用这些指标设计了用于事后分析意图的方法,有助于在自主系统造成非预期伤害时厘清其责任归属。 最后,我们通过“反应式决策”(reactive decision-making)框架将上述贡献统一起来,提出了一种能够整合现有方法的通用形式化建模方式。总体而言,本论文所提出的多项进展在实现更安全、公平、可问责的AI系统方面具有现实意义,也为可信AI的后续研究奠定了基础。

成为VIP会员查看完整内容
0

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【CMU博士论文】评估算法系统的隐私性与问责性
【ETHZ博士论文】机器学习代码: 安全性与可靠性
专知会员服务
19+阅读 · 2024年10月25日
【CMU博士论文】经典方法对现代机器学习的改进
专知会员服务
28+阅读 · 2024年8月16日
专访俞栋:多模态是迈向通用人工智能的重要方向
AI科技评论
26+阅读 · 2019年9月9日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
169+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员