在许多刑事图像分析的应用中,如今用机器学习方法取得了最先进的结果。然而,对其可靠性和不透明性的担忧引发了这样一个问题:这种方法是否可以用于刑事调查。到目前为止,这个问题几乎没有被讨论过,这也是因为机器学习方法的法律规定没有被明确定义。
为此,欧盟委员会最近提出了人工智能(AI)法案,这是一个值得信赖的人工智能使用的监管框架。根据人工智能法案草案,用于执法的高风险人工智能系统是允许的,但要符合强制性要求。
在本文中,我们回顾了为什么机器学习在刑事图像分析中的使用被列为高风险。然后,我们总结了对高风险人工智能系统的强制性要求,并根据两个刑事应用--车牌识别和深度造假检测,讨论了这些要求。本文的目标是提高对即将到来的法律要求的认识,并指出未来研究的途径。
刑事图像分析包含了一系列技术,用于分析法律事务中的图像内容或图像本身。相关的子学科包括照片对比、摄影测量、来源识别和图像认证。这些领域发展的最初动机是通过提供有科学依据的证明性图像材料的声明来支持刑事调查。尽管刑事图像分析现在已经吸引了更多人的兴趣,如新闻事实核查员和保险公司,但刑事调查中的证据分析仍然是该领域的核心利益之一。
在最近深度学习取得成功后,多媒体取证的研究重点从分析模型转移到了机器学习。机器学习对刑事图像分析具有吸引力,原因有几个。首先,物体检测、图像去噪和身体姿态估计方面的进展往往直接转化为刑事任务,如车牌识别、噪声残留提取和摄影测量高度估计。其次,由于对图像来源(如相机硬件或处理)的了解有限,以及由于痕迹和图像转换之间的复杂互动,许多刑事痕迹是众所周知的难以分析建模。在这些情况下,从大量的例子中学习提供了一个有吸引力的解决方案。此外,机器学习方法在更广泛的应用场景中表现出色,而传统的分析方法通常局限于一个狭窄的应用范围。
尽管机器学习方法具有很高的性能,但它存在一些内在的缺陷。最重要的是,它们的不透明性使得人们很难解释该方法的内部运作方式,也很难追踪到特定的输出。因此,一个公开的挑战是如何审计和验证一个机器学习系统是否按预期工作,并且没有不利的副作用或偏见。此外,机器学习方法对训练-测试不匹配很敏感。这个问题在刑事应用中尤其重要,因为在刑事应用中,方法会经常接触到来自不受控制的来源的图像,这些图像可能不在训练数据的范围内。在这种情况下,机器学习方法很容易做出错误的预测。特别是在方法依赖于不可察觉的痕迹的应用中,检测这种不匹配是很困难的。
这些局限性提出了一个问题,即用于刑事图像分析的机器学习工具在多大程度上可以应用于刑事诉讼案件,从调查阶段到在法庭上提供专家证人的证词的各个阶段。虽然在调查阶段使用刑事图像分析的线索看起来不那么微妙,但这种线索会导致进一步的调查措施,影响到嫌疑人的基本权利。限制个人基本权利的调查措施必须建立在充分和有保障的事实基础上。因此,刑事分析方法必须尽可能地可靠,不能想当然地认为其符合法律规定。
尽管目前的研究集中在基于学习的方法上,但它们在执法中的实际应用及其法律合规性很少被讨论。这可能是因为法律合规性的规定要么在不同的司法管辖区有所不同,要么对技术界来说并不清楚,甚至还不存在。
2021年4月,欧盟委员会为人工智能的可信使用提出了一个监管框架,即人工智能法案(AIA)[7]。1虽然该提案仍在讨论中,但AIA最终将规范整个欧盟对人工智能方法的使用,包括在执法中的使用。因此,AIA确立了法律上的明确性,即哪些人工智能的使用是被禁止的,哪些使用是允许的,但要有强制性的保障措施,哪些使用是允许的,只有很少或没有限制。
在本文中,我们研究了AIA并分析了它对基于学习的刑事图像分析方法的影响。AIA将执法部门的刑事图像分析应用归为高风险。根据AIA,用于这些应用的人工智能系统是允许的,但它们必须满足强制性要求。作为我们的贡献,我们根据两个刑事应用,即车牌识别和深度造假检测,总结并讨论了最相关的要求。本文的目标是提高研究界对人工智能工具的法律要求的认识,并指出由AIA激励的未来研究方向。
对于我们的讨论,我们选择了这两种应用,因为机器学习在这两种情况下都是一种有前途的方法,远远超过了传统方法和人类。虽然车牌识别在执法方面有直接的应用,但深度假货检测仍然是一个年轻的领域,但仍然突出了一些关键的挑战,使基于学习的工具在AIA下合法合规。
本文的组织结构如下。第二节回顾了刑事图像分析中法律要求方面的相关工作。第三节概述了AIA和对高风险AI系统的要求。在第四节中,我们使用车牌识别和深度假货检测这两个刑事应用来讨论这些要求。第五节是本文的结论。