在人工智能(Al)和机器学习(ML)的高节奏、高风险的军事应用中,操作人员需要迅速了解他们的AI/ML辅助工具的优势和局限性,以便人类+AI团队的组合能够提供决策优势。随着AI智能体变得越来越复杂,操作员需要这些先进系统的透明度,就像为他们的人类合作者建立心理模型的能力,以最终判断他们的适当使用。

要让不是计算机或数据科学家,也没有时间或工具来理解AI系统的内部运作的人类能够解释人工智能,一个关键的挑战是将机器推理的隐藏层映射到人类可以解释的语义中,以获得对AI建议的更多了解,这样操作者就可以对AI的结果更有信心,或者知道何时推翻它。为了解决将机器生成的解释的语义与人的解释相一致的挑战,我们首先描述了创建一个代用的白盒方法作,随后描述了语义一致方法概念。我们描述了一个自动目标识别(ATR)的用例,并说明了为什么目前的解释器方法不足以实现机器的透明度,并讨论了研究需求。

成为VIP会员查看完整内容
46

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
【剑桥大学博士论文】自主智能体解释,175页pdf
专知会员服务
65+阅读 · 2023年3月3日
《可解释自主无人机:XAI 之旅》美国陆军等12页论文
专知会员服务
73+阅读 · 2023年1月18日
一图掌握《可解释人工智能XAI》操作指南
专知会员服务
59+阅读 · 2021年5月3日
DARPA可解释人工智能
专知会员服务
126+阅读 · 2020年12月22日
46页pdf, 165篇文献 | 图的可解释性
图与推荐
3+阅读 · 2022年10月25日
“人工智能,有必要像人类一样吗?”
THU数据派
0+阅读 · 2022年8月4日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
41+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
13+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
28+阅读 · 2022年3月28日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
41+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
13+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员