近年来,机器学习模型,尤其是深度学习和变压器模型的性能空前提高,因此被广泛应用于金融、医疗保健和教育等各个领域。然而,这些模型容易出错,无法自主使用,尤其是在决策场景中,从技术或道德角度讲,出错的代价很高。此外,由于这些模型的黑箱性质,最终用户往往难以理解模型的结果和底层过程,无法信任并使用模型结果做出决策。可解释人工智能(XAI)通过利用包括可视化技术在内的方法来解释和诠释模型的内部运作以及如何得出结果,从而帮助最终用户理解模型。尽管最近开展了大量研究,重点关注模型和 XAI 方法的性能,但关于解释对人类-人工智能团队性能的影响的研究较少。本文调查了近期关于 XAI 对人类-人工智能决策影响的实证研究,确定了面临的挑战,并提出了未来的研究方向。

XAI与决策

人工智能辅助决策研究领域正在飞速发展,研究和实验的数量也在稳步增加。然而,由于实验中的任务和设置各不相同,关于 XAI 对人类决策的影响的研究结果也不尽相同[81]。还需要进行实证研究,以形成对人类与人工智能之间互动的基本理解,从而做出决策[20]。此外,人类在模型可解释性中的作用及其对带有或不带 XAI 组件的人工智能辅助决策的影响也未得到充分研究[62]。例如,认知科学、社会科学和心理学中存在大量关于人类如何形成解释并相互解释不同现象的研究[64],这些研究对 XAI 领域,尤其是人工智能辅助决策环境中的 XAI 领域大有裨益。

成为VIP会员查看完整内容
55

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
《综述:测试与评估中应用的人工智能工具》
专知会员服务
63+阅读 · 1月22日
《基于开源软件强化学习的计算机生成兵力》
专知会员服务
66+阅读 · 1月21日
《应对人工智能系统测试和评估新挑战的最佳实践》
专知会员服务
79+阅读 · 2023年8月7日
《结合机器人行为以实现安全、智能的执行》
专知会员服务
15+阅读 · 2023年7月4日
《可信人工智能: 将人工智能融入美国陆军知识体系》
专知会员服务
145+阅读 · 2023年4月12日
结合进化算法的深度强化学习方法研究综述
专知会员服务
78+阅读 · 2022年7月16日
专知会员服务
52+阅读 · 2021年3月22日
「基于通信的多智能体强化学习」 进展综述
深度学习模型可解释性的研究进展
专知
25+阅读 · 2020年8月1日
零样本图像识别综述论文
专知
21+阅读 · 2020年4月4日
机器学习必备手册
机器学习研究会
19+阅读 · 2017年10月24日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
406+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
145+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
《综述:测试与评估中应用的人工智能工具》
专知会员服务
63+阅读 · 1月22日
《基于开源软件强化学习的计算机生成兵力》
专知会员服务
66+阅读 · 1月21日
《应对人工智能系统测试和评估新挑战的最佳实践》
专知会员服务
79+阅读 · 2023年8月7日
《结合机器人行为以实现安全、智能的执行》
专知会员服务
15+阅读 · 2023年7月4日
《可信人工智能: 将人工智能融入美国陆军知识体系》
专知会员服务
145+阅读 · 2023年4月12日
结合进化算法的深度强化学习方法研究综述
专知会员服务
78+阅读 · 2022年7月16日
专知会员服务
52+阅读 · 2021年3月22日
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员