以色列军方将人工智能(AI)作为监控、控制及军事压迫巴勒斯坦人的工具,其历史远早于对加沙地带的全方位袭击。过去十年间,以色列军事与情报机构日益将先进AI技术融入针对巴勒斯坦平民生活的监控、压制与武器化行动。AI与致命武器系统的整合,在被占领土上持续引发大规模人权侵犯。2019年,以色列军事情报局8200部队(Unit 8200)指挥下成立目标识别小组。该小组由现役与预备役士兵组成,主要承担加沙地区行动任务,标志着军事打击流程自动化程度的显著提升。
2021年5月以色列对加沙的军事进攻,成为AI融入作战的关键转折点。以媒当时称之为"AI首次大规模投入实战"。然而此类技术最广泛、最具破坏性的应用,始于2023年10月7日持续至今的军事行动。据报告,以军使用AI系统在加沙识别超37,000个目标——这一数字折射出自动化打击的惊人升级。AI驱动系统与高破坏性常规武器结合,急剧扩大了毁灭规模,酿成灾难性人道后果,并引发紧迫的法律伦理关切。
本报告聚焦当前加沙战争,调查以军作战中AI的应用模式,重点探究:
通过揭示加沙的残酷现实,本报告旨在揭露巴勒斯坦被拘留者遭受的、明显违反国际法的系统性侵害。
1.1 "福音"系统:AI驱动的目标选择与打击授权
以色列占领军在加沙军事行动中部署的核心AI技术是"福音"(Gospel)目标识别系统。该系统旨在识别"合法打击目标"建筑物,通过处理海量情报半自动生成可执行打击方案。人为干预被最小化——仅保留目标提交指挥官前的最终核验环节。系统从卫星影像、无人机画面及社交媒体活动等多源情报中,运用"概率推断"技术识别大数据集模式。即使缺乏确凿证据,符合已知战斗人员特征的个人或地点仍可能被归类为军事目标,致使打击决策常基于概率而非确认情报。
这些潜在目标通过名为"火柱"(Pillar of Fire)的AI应用程序传输至指挥官移动设备。该系统在10-12天内可识别约200个目标,其决策伴随严重后果:指挥官在执行行动前完全知晓预估平民伤亡。明知潜在人道影响仍批准打击,反映出蓄意预谋的战略,强烈暗示种族灭绝意图。
1.2 "薰衣草"计划:算法化目标定位与平民伤亡
以色列加沙军事行动的另一核心AI系统是"薰衣草"(Lavender)计划。该程序通过机器学习算法为加沙居民评定0-100分的"风险评分",评估个体与武装团体关联概率。军方据此设定阈值决定是否将个体列为合法打击目标。
薰衣草计划已导致数万平民因算法预测被列入打击名单。系统分析无人机监控、安防影像等监控数据的行为模式,可能还提取数字通讯与社交媒体信息。若个体行为匹配抵抗战士特征即被标记为潜在战斗人员。然而系统依赖概率模型而非核实情报,引入至少10%的显著误差空间。
以军内部报告与证词显示:在2023年10月7日开始的加沙攻势初期,薰衣草输出结果被赋予近乎绝对权威。士兵获广泛授权直接执行AI生成目标清单,无需独立人工核查。该政策实质上无视国际人道法基本原则(如相称性原则与平民-战斗人员区分原则)。
薰衣草的广泛使用直接导致大规模平民伤亡,包括整片街区摧毁与家族灭门。更令人担忧的是社交媒体平台可能涉案——其监控数据或已输入目标算法,引发关于共谋的额外伦理法律质疑。该技术的部署表明以军系统化依赖AI执行致命行动,在人类监管缺位下将加沙变为自动化战争与平民大规模定位的实验室。
2.1 "爸爸在哪?":AI定位家庭目标
"爸爸在哪?"(Where's Daddy?)系统标志着以军人工智能技术应用的重大升级。与"福音"和"薰衣草"等早期系统不同,该技术专门追踪目标直至其身处家庭环境,显著增加大规模平民伤亡风险。系统通过采集分析覆盖加沙近90%人口的海量数据,基于概率分析算法对个体进行1-100分评分,依据其与武装团体的"关联度"识别"目标"。大规模监控中的"关联"判定方式,常使非武装平民被错误归类为威胁目标,导致致命打击失误。"爸爸在哪?"数据源包括手机定位追踪、卫星与无人机影像、谷歌相册等平台的面部识别技术以及WhatsApp/Instagram/Facebook(Meta平台)社交媒体监控。加沙平民证词证实:使用这些应用后常遭袭击,印证以方承认AI技术被无差别应用。系统存在操作缺陷:目标识别与打击执行存在显著时滞,导致整户家庭被误杀而预定目标未受打击。此外,低阶军官有时决定监控或打击名单,常搭配使用无制导"哑弹"——进一步证明蓄意广泛针对平民的政策。该技术部署凸显以军在国际法框架下构成种族灭绝行为的预谋意图。
2.2 作为大规模杀伤性武器的人工智能
除个体定位外,以军利用AI最大化平民伤亡并系统性摧毁加沙城市基建。典型案例包括"铁刺"(Iron Sting)导弹(以色列埃尔比特公司开发的激光/GPS制导迫击炮弹,2023年10月首次在加沙部署)、先进无人机(TP Heron、赫尔墨斯900、赫尔墨斯450等型号密集用于监视、情报收集与精确打击)、武装无人机(Matrice 600与Lanius等小型无人机配备机枪导弹实施直接攻击)及"四旋翼"(Quadcopter)改装无人机(搭载高清摄像机、窃听装置与爆炸物,具备高精度监视、追踪与定点清除能力)。其他AI攻击系统包括诱杀机器人(装载炸药桶的遥控车辆穿行民宅间制造最大伤亡)和武装监控吊车(50米高空架设自动机枪,无声追踪射击平民且难溯攻击源)。AI还广泛应用于生物特征监控:面部识别程序未经同意采集加沙居民影像存档,基于2023年末以军秘密构建的数据库,程序可在数秒内识别个体身份。AI技术的全面部署揭示蓄意战略:将AI转化为多维度种族灭绝武器,其效力更因国家与非国家行为体的共谋而增强——本报告下一章节将深入探究。
以色列对加沙的持续袭击得到外国政府与私营科技公司的强力支持——尤其在人工智能(AI)领域。美国作为主导支持者,其与以色列的紧密同盟近年已扩展至网络安全、数据处理及AI系统合作。2022年美以签署的正式协议强化了这一伙伴关系,凸显华盛顿对以军行动的长期支持——即便这些技术应用方式遭人权组织广泛谴责。美国介入超越政府协作层面:谷歌、亚马逊、微软等科技巨头为以军提供关键数字基础设施。典型案例是"尼布斯计划"(Project Nimbus)——谷歌与亚马逊通过该计划提供先进云计算、人脸识别及预测分析工具。这些系统强化了以色列的监控与目标锁定能力,包括用于行为预测与身份画像的技术,加剧对加沙平民的控制。
微软通过Azure云服务支持类似行动,服务对象涵盖以军精锐情报单位(如8200部队、81部队及空军地平线部队)。这些部队依赖大数据分析与实时翻译软件处理海量目标数据库。报告显示加沙战争前六个月,以军对微软云服务的使用量激增60%。
社交媒体公司同样面临审查。脸书、Instagram与WhatsApp母公司Meta被指控提供的数据可能助长针对平民的定向袭击。多名以军空袭幸存者证实,袭击前曾在这些平台活跃。人权调查员已核实相关证词。
企业涉战表现为双重形式:
技术主动支持
• 谷歌、亚马逊、微软员工反对公司涉以军事行动遭报复
• 亚马逊数名员工因抗议"尼布斯计划"辞职
• 微软解雇两名扰乱公司活动抗议援以的员工
• 谷歌开除参与"不为种族隔离供技术"运动的工程师(因其打断纽约以色列科技会议)
内部异议压制
上述企业系统性压制质疑涉军合作的内部声音。这种双重共谋模式揭示:科技公司在提供扩展以军行动能力工具的同时,压制内部抵制力量。这些行为共同表明企业权力如何被用于强化并庇护被广泛视为严重违反国际法的军事行动。
以色列在军事行动中部署人工智能引发国际人道法与人权法领域的严重法律关切。首要问题在于生命权的侵蚀:由AI引导的半自主系统以生死攸关的后果快速决策,绕过了人类行为体可能提供的伦理判断与法律责任。通过战争自动化,此类系统削弱人类监督与责任,实质上将致命军事行动转化为缺乏道德评估的机械化操作。这种对巴勒斯坦人的去人性化——将其视为算法数据点而非受保护平民——助长了非法杀戮中的有罪不罚现象。
AI驱动的目标锁定破坏比例原则。这些系统无法对军事打击必要性相对于预期平民伤害进行细致评估。人类判断本可避免的错误愈发频繁,加剧无差别与不成比例攻击的风险。AI还放大武装冲突中现存权力失衡:无人技术使用增加施暴者与目标的物理心理距离,提升攻击破坏潜力并强化现代战争不对称性。在被占领的巴勒斯坦,平民遭受日益精密的技术统治,该动态尤为令人警醒。
此类AI应用可能触及《1948年灭绝种族罪公约》定义的种族灭绝门槛,并构成对国际人道法的严重违反。尽管现行国际法律框架未将企业实体纳入国际刑法追责范围,但这不免除其责任。根据新兴国际企业责任原则,明知故犯提供战争罪或危害人类罪工具的公司仍可被追责。
面部识别与情感分析等技术不仅侵犯隐私权、言论自由与非歧视等基本权利,更违背涉事企业的内部伦理准则。当售予有严重侵犯人权记录的政权时,这些技术沦为压迫与灭绝工具。谷歌参与"尼布斯计划"引发内部抗议与辞职,正是伦理责任危机的典型例证。
如前所述,AI融入军事行动虽不涉及传统武器,仍受国际人道法约束。国际红十字委员会(ICRC)重申:"任何新军事技术应用必须符合国际人道法相关规则"。然而以色列占领军系统性违背这些法律义务:联合国事实调查委员会证实以军在近期加沙行动中的违法行为,特别指出其使用AI目标系统时人类监督严重缺失。
这些方法与大规模平民伤亡(含大量妇女儿童)直接相关。委员会声明:以军依赖AI增强目标锁定配合高爆弹药,"公然漠视区分战斗人员与平民的法律义务,且未采取预防措施避免平民伤害"。
以色列军队在针对巴勒斯坦人的行动中使用人工智能,构成对国际法的严重违反及对人权的粗暴践踏。这些为精确识别打击目标而开发的AI系统,在实践中加剧了对加沙袭击的规模与致命性——导致大规模平民死亡、住宅/基础设施/公共服务系统性损毁。此类手段不仅是军事策略,更是针对巴勒斯坦人民的持续性种族灭绝行动的组成部分,其通过尖端技术服务于系统性暴力而日益精密化。
加沙事件凸显AI在现代战争中的深远风险:这些技术将人类简化为数据点与打击目标,剥夺其人性尊严,并基于潜在缺陷算法与不可验证情报作出致命决策。
国家与企业参与开发供应此类工具引发严峻法律与道德质疑——随着员工辞职、解雇及科技公司内部反对战争罪与种族灭绝的有组织抗议等证据累积,其共谋事实日益清晰。
鉴于事态严峻,国际社会肩负共同责任确保正义与问责。各国政府及国际机构必须强化行动,追究所有责任方(国家与企业)违反国际人道法的罪责。需采取具体措施施压以色列当局:停止对巴勒斯坦平民使用AI驱动武器系统,并遵守国际法律义务。