在 2016 年向人工智能促进协会 (AI) 发表的讲话中,当时的协会主席呼吁 AI 为了稳健性而牺牲一些最优性 [1]。对于 AI,稳健性描述了系统在各种情况下保持其性能水平的能力 [5]。通过机器学习开发和验证高质量模型面临着特殊的挑战。一般公认的大多数人工智能可能需要稳健的条件包括: • 训练和操作数据的不确定性;• 不同于训练集的输入,但在统计上或语义上与训练人群一致;• 培训人群之外的输入;• 用有限的数据学习;• 新颖的情况,不同于学习策略和分类器的开发方式;• 对抗性行动。此外,对于人类 AI 团队,人类必须适当地信任 AI 系统;因此,透明度也可以被视为稳健性问题。混合战争为人工智能的稳健性带来了额外的挑战。决策的不同性质和必要的决策支持扩大了所需模型的范围。在不同条件下开发的模型的组合使用会影响可以对复合系统质量做出的统计声明。如果我们需要稳健性,我们必须考虑它的测量。对与上述条件相关的稳健性研究的调查提供了一系列可能的措施。联盟实施的混合战争需要了解所使用能力的稳健性。在本文中,我们从当前文献中调查了稳健性指标的前景。在这样做的过程中,我们有助于了解联盟内部各种模型和软件的组合。
【AI+军事】附论文《建立信任和接受技术的综合模型》
专知会员服务
25+阅读 · 2022年5月2日
【AI+军事】附论文《算法时代的风险评估》
专知会员服务
17+阅读 · 2022年5月2日
参考链接
父主题
微信扫码咨询专知VIP会员