人工智能本可改善人类生活,如今却被用于计算平民死亡数量并支撑宣传机器。
当学界仍在争论机器学习对人类文明的威胁时,AI辅助轰炸已昭示算法编程式杀戮在战争中的新量级。2023年12月1日,以色列国防军(IDF)发布加沙地图,将这片土地划分为600余个区块。这些区块旨在帮助平民识别交战区。巴勒斯坦民众需在断电与空袭中扫描二维码获取该地图,接收轰炸高危区域的定向疏散警报。这张标榜精准的地图实为公关工具,意图塑造国际社会对其保护平民的认知。IDF以交互地图作为努力减少平民伤亡的证据,向世界表明加沙居民并非敌人。人权观察组织指出,此类疏散令罔顾地面实况,不应剥夺战争法赋予平民的保护权。12月5日,联合国儿童基金会发言人詹姆斯·埃尔德直言:前往所谓安全疏散区等同死刑。
11月30日,独立新闻平台+972杂志与《本地呼声》发布的调查报告,揭露AI在以色列加沙战争中的广泛运用。基于对以情报机构现役及退役人员的访谈,报告显示IDF情报部门已蜕变为"大规模暗杀工厂",借统计精准的高科技情报工具之名行杀戮之实。调查曝光名为"哈布索拉"(意为"福音")的系统——该AI技术生成四类打击标识:战术目标、地下设施、电力目标及家庭住宅。目标选定依据哈马斯成员在设施内出现的概率,每个目标附带的档案"明确规定袭击中可能死亡的平民数量"。这些档案提供精确计算的伤亡数字,使军队发动攻击时预知平民死亡规模。
非营利新闻机构"此刻民主"的访谈中,尤瓦尔·亚伯拉罕指出:AI系统依赖自动化软件生成目标,直接决定生死。过去对附带损伤有严格限制,而此类AI生成目标前所未有——其自动化流程依托AI数据处理技术,允许潜在附带损伤达数百平民,且生产速度"远超攻击频率"。
前以色列国防军参谋长阿维夫·科哈维表示,2019年成立的"目标定位局"通过数据处理生成可执行目标。该系统凭借"矩阵式能力"实现"单日生成100个目标,其中50%被实施打击"——而过去情报部门年产量仅为50个目标。在AI生成目标的升级流程中,平民伤亡标准被大幅放宽。12月6日,半岛电台播客《深度追踪》主持人马利卡·比拉尔发布专题节目,进一步调查以军作战规程及"福音"系统应用。其核心质疑在于:平民伤亡限制何时以何种方式改变?何人决定放宽标准?
比拉尔采访了卡塔尔哈马德·本·哈利法大学中东研究副教授马克·欧文·琼斯,他指出:"AI正被用于筛选死亡与毁灭对象。"琼斯强调,以军训练AI模型时,情报部门完全清楚这些目标将包含平民。"他们将人的生命与命运外包给一项技术,而该技术很可能继承了占领与灭绝的意识形态。"AI模型的训练基于既定先例,在以军案例中,屠杀平民已成为模型的内在组成部分。
AI技术的核心特征在于其依赖收集的数据与采用的模型。若技术学习存在偏见的数据,不仅AI应用会产生偏差,其预测模型与行动建议在服务于特定意识形态的语境下亦将丧失公正性。以色列国防军一面标榜算法精确性,一面规避公平程序与问责机制。主流媒体的政治营销机器将AI生成目标描述为"临床手术般的效率",以技术精密性之名赋予杀戮特权。尽管AI常被宣传为使战争更精准的工具,但加沙的现实证明拯救生命从未纳入该模型。相反,在日均轰炸数百个目标的行动中,"最大化毁伤"才是核心议程。
人工智能已渗透社会各领域,海量论文与演讲聚焦AI生成内容及聊天机器人。但AI在宣传机器与大规模杀戮中的应用,却成为鲜被关注且刻意淡化的议题。当前峰会、发布会、国际论坛及访谈中的AI批判性讨论常陷入两类窠臼:一类竭力论证AI不具备真正智能(至少非人类认知层面的智能);另一类则渲染AI因在认知领域超越人类而构成威胁。这些学术论述往往回避追问——究竟何种价值观与优先级塑造了其理论模型?
借技术进步之名消解人类现实,实为推卸责任的策略性手段。它催生了一种算法驱动的新型服从形态,其中最贫困脆弱群体的生命甚至不被纳入考量因素。对AI的批判性思考应涵盖其创造、建模、应用及作为行为预测技术的发展轨迹,这是避免技术陷入"去政治化迷雾"的责任担当。
至2024年,AI技术已能通过捕捉每个手势、动作与交互数据来发展技能。对人类生活的系统性追踪及模型的不透明性,正在构建真理形成的新范式——审查制度借此达到全新量级。AI技术既可标榜精准性,又能隐藏信息计量与传播标准;既可产出不透明模型,更迫使我们反思应倡导何种社会价值序列。
在法西斯意识形态推崇的"真理体制"中,核心在于通过系统性数据监控实现行为计算、控制与预测的"精准性"。所收集的数据被包装成真理量尺,用以替代真实生活经验。正如哲学家安托瓦内特·鲁夫瓦所言:此数字体制下,个体被"无意义数据"集合所取代。作为拥有记忆、经验与血肉的独特存在的人已然消失,蜕变为可被追踪、行为可被预判的数据画像。
思维、生存与存在方式,日益取决于信息存储工具与未来预测工具间的技术协定。随着AI发展,人类心智被智能设备包围——这些设备从我们的行为中学习,审查特定内容并推广其他内容。
人工智能的迅猛发展迫使我们审视形塑精神与集体存在的设备生态系统——它既瓦解社会信任,又实施内容审查。2024年全球互联网用户将超三分之二人口,而2020年每四人中便有一人无法获得安全饮用水。世卫组织与联合国儿童基金会联合报告指出:饮用水、卫生设施及个人清洁领域的进展严重不足且失衡。数字网络与水资源的并行现实,折射出国际社会公民与道德责任的优先级扭曲。
尽管水是生存第一需求,现实却是大量饮用水被用于冷却数据中心。谷歌2023年7月24日发布的环境报告显示:2022年其取水量达2876.5亿升,其中98%为饮用水,三分之二用于冷却汇集信息系统设备的数据中心。能源消耗触目惊心,人道代价更令人窒息。全球75%的钴矿(手机、电脑、平板及电动车锂电池核心材料)来自刚果东部,数百万儿童与成人在非人劳动环境中求生。十年间,超五百万人死于疾病与营养不良。
要理解数字法西斯政权的崛起——当技术进步支撑大规模操纵与非人化——必须认清人工智能与算法驯化的共生关系。2024年,以AI精准性为名的军事规程松绑,正服务于国际法被公然践踏的全球经济。我们这些为自由抗争的全球公民,已成为数字暴政的活见证,它正残酷侵蚀着正义与团结的未来根基。
【警报:2023年12月13日加沙拉法省沙布拉难民营居民区遭以军空袭后的建筑废墟】