【ICML2022】可解释的心理学理论

2022 年 5 月 29 日 专知


可解释人工智能(XAI)的目标是生成人类可解释的解释,但目前还没有计算精确的理论来解释人类如何解释人工智能生成的解释。理论的缺乏意味着XAI的验证必须在个案的基础上进行实证,这阻碍了XAI系统的理论建设。我们提出了一个关于人类如何从显著图(XAI解释的最常见形式)中得出结论的心理学理论,这首次允许在解释的条件下精确预测被解释推理。我们的理论假设,在缺乏解释的情况下,人类期望人工智能做出与自己类似的决定,他们通过与自己给出的解释进行比较来解释一种解释。比较是由认知科学中的经典理论——相似空间中的Shepard普遍概化定律形式化的。一项预先注册的带有显著图解释的AI图像分类用户研究表明,我们的理论在数量上与参与者对AI的预测相匹配。


https://www.zhuanzhi.ai/paper/87b1a3a6f02a70edcd51bf6449128f0f



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“APTE” 就可以获取【ICML2022】可解释的心理学理论》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
3

相关内容

【ICML2022】序列决策的效用理论
专知会员服务
15+阅读 · 2022年6月30日
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
39+阅读 · 2022年2月28日
专知会员服务
23+阅读 · 2021年7月10日
【ICML2022教程】因果公平性分析,68页ppt
专知
3+阅读 · 2022年7月19日
【ICML2022】序列决策的效用理论
专知
1+阅读 · 2022年6月30日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年7月27日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
49+阅读 · 2021年5月9日
Arxiv
19+阅读 · 2021年1月14日
Deep learning for cardiac image segmentation: A review
Arxiv
21+阅读 · 2019年11月9日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年7月27日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
49+阅读 · 2021年5月9日
Arxiv
19+阅读 · 2021年1月14日
Deep learning for cardiac image segmentation: A review
Arxiv
21+阅读 · 2019年11月9日
Top
微信扫码咨询专知VIP会员