以色列正在加沙使用人工智能系统识别目标,此举被视为现代战争的重要一步。自2023年 10 月 7 日哈马斯领导的武装分子发动袭击以来,以色列军队已对加沙发动了 22000 多次袭击,其中自 12 月 1 日临时停战协议破裂以来就发动了 3500 多次袭击。
以色列军方的人工智能系统被命名为 "福音",用于迅速确定敌方部队和装备的位置,据称可最大限度地减少平民伤亡。然而,批评者认为,该系统的有效性值得怀疑,它可能被用来为大量平民死亡辩护。
兰卡斯特大学人类学家露西-苏奇曼(Lucy Suchman)对人工智能系统的实际效果表示担忧,因为加沙遭到了大规模破坏。来自 Trail of Bits 的海迪-克拉夫(Heidy Khlaaf)警告说,人工智能算法的错误率很高,尤其是在战争中瞄准目标等关键应用中。
尽管存在这些担忧,但正如美国国防情报局前局长罗伯特-阿什利(Robert Ashley)所指出的,人工智能在战争中的应用是一个新阶段,具有快速处理数据和决策的潜力,这一点已达成共识。由以色列 8200 单元开发的 "福音 "是用于目标推荐的多个人工智能程序的一部分,其结果明显快于传统方法。
美国犹太国家安全研究所的布莱斯-米斯塔尔(Blaise Misztal)指出,该系统可能利用了多种数据源,包括手机短信、卫星图像和无人机镜头。然而,人们对该系统的训练偏差以及分析人员依赖人工智能建议的压力越来越大的担忧也与日俱增。
在最近的冲突中,以色列如此大规模地使用人工智能是史无前例的,既要打击哈马斯,又要在复杂的城市环境中尽量避免平民伤亡。尽管如此,加沙大量巴勒斯坦平民的死亡和大范围的破坏还是引起了人们对人工智能性能和道德影响的严重质疑。
这一事件凸显了人工智能在军事冲突中新出现的作用,使现代战争中的有效性、道德和责任等问题变得更加突出。
人工智能(AI)影响着医疗、教育、金融和娱乐等各个领域,正日益成为我们日常生活的核心。随着人工智能的发展,有效治理以管理其使用和应对潜在风险的重要性也与日俱增。机器学习作为人工智能的一项关键技术,对社会产生了重大影响,引发了有关公正性、透明度、隐私和数字鸿沟的伦理问题。
由于人工智能技术复杂、发展迅速、应用多样,有效的人工智能治理至关重要,但也极具挑战性。它要求在创新和社会保护之间取得平衡,确保问责制和公平性。从遗传算法中吸取经验教训并认识到人工智能的全球性,适应性人工智能治理至关重要。要实现人工智能标准化,需要国际合作,让联合国等组织和各利益相关方参与进来。
人工智能标准化对于互操作性、透明度和解决偏见等道德问题至关重要,但由于人工智能的快速发展和复杂性,标准化面临着挑战。尽管如此,国际标准化组织(ISO)和电气和电子工程师学会(IEEE)等组织正在制定人工智能标准,强调利益相关者的广泛参与。
在机器学习管理中,数据质量和隐私是关键。在数据需求与隐私保护之间取得平衡、消除数据偏见并确保透明度是一大挑战,但法规可以为负责任地使用人工智能制定标准。
监管人工智能算法对公平性和问责制至关重要,但其技术复杂性和快速发展带来了挑战。多方利益相关者的参与、技术标准和第三方审计是潜在的解决方案。
最后,人工智能在各行各业的应用,特别是在军事应用中的武器化,也需要监管。人工智能在战争中的伦理和安全影响,包括自主武器,需要一个全球伦理框架和国际合作。
总之,随着人工智能的发展,一个全面的、针对具体部门的、全球合作的监管方法至关重要,重点是适应性,以应对当前和未来的人工智能发展。