人工智能(AI)融入军事行动对国际和平产生重大影响,国际社会、学者及政策制定者亟需全面理解其含义。本研究探讨现代战争中围绕人工智能的伦理问题,重点关注问责机制——特别是在自主系统故障情形下。基于技术决定论理论。主题分析表明,战争中日益增加的人工智能应用引发了有关问责、人类尊严及冲突未来的深刻伦理质疑。研究建议建立全球框架以规范人工智能在军事行动中的使用。
人工智能在军事行动中的出现已引发关于其伦理影响的激烈争论。随着人工智能技术日益精进,其改变现代战争的潜力不断增强,进而对问责机制、人类尊严及冲突未来提出关键性质疑。人工智能(AI)的迅猛发展具有巨大的潜在优势(Rowe,2022年)。为避免人工智能在社会应用中引发不可预见的危害与风险,我们必须审视人工智能系统的所有伦理维度。与科幻小说紧密关联的普遍误解是:人工智能由能完全感知环境的仿人机器人构成(Osimen, Fulani, Chidozie & Dada, 2024年)。然而根据Copeland(2024年)的见解,其内涵远不止于此——人工智能(AI)指计算机控制的机器或机器人执行需要与人类同等智能的任务的能力;它们被认为能够思考、理解并从先验经验中学习(Osimen, Fulani, Chidozie & Dada, 2024年)。
无论学者持何种观点,过去20年间人工智能始终以加速态势发展。因此,人工智能技术已深刻影响美国及其他工业化国家人民生活的多个维度。人工智能正渗透至日常生活的诸多领域,包括智能手机、移动测绘导航系统、自然语言交互计算机、定向在线营销及定制化社交媒体信息推送(Morgan, Boudreaux, Curriden & Klima, 2020年)。随着自动驾驶汽车等自主机器人技术获得社会认可与整合,此趋势将持续强化(Morgan, Boudreaux, Curriden & Klima, 2020年)。人工智能已迅速成为日常生活的重要部分,深刻影响着医疗保健、教育、金融及娱乐等行业(Marwala, 2023年;Adom, Kportufe, Asare-Aboagye, & Kquofi, 2024年)。
艾伦·图灵1950年的论文《计算机器与智能》被公认为人工智能的奠基性著作。在这篇论文中,著名数学家兼计算机科学先驱艾伦·图灵设问:机器是否终能进行推理(Anyoha, 2017年)?纵观历史,追求技术进步常被合理化作为实现军事优势的手段。自堑壕战遭弃用后,作战焦点已从直接物理对抗转向数字战争领域(Chukwudi, Osimen, Dele-Dada, Ahmed, 2024年)。技术最初用于制造更强大的武器系统,但迅速扩展至机械化作战,从而开启新时代(Military Africa, 2023年)。Parkin(2015年)指出:在涉及致命性武力的军事技术与规划中,以人工智能(AI)软件替代人力的构想正日益普及。鉴于军事冲突的危险性,推动参与者自动化的动力尤为强劲(Osimen等, 2024年)。例如,韩国采用基础人工智能技术的自动炮塔已获广泛应用(Parkin, 2015年)。
然而,Alderman、Daniel与Ray(2018年)对军队在冲突期间乃至相对和平时期为加强安全而使用人工智能引发的伦理问题表示忧虑。最尖锐的批判聚焦于:机器人可能在未经人类操作员直接授权的情况下杀人,甚至可能在武器选择错误目标时脱离人类监督或干预能力。此外,对人工智能其他应用也存在担忧——例如决策支持系统可能建议采取更极端措施乃至先发制人的打击,而指挥官无法审查其复杂运算逻辑;或公民因人脸识别系统及其他尖端人工智能计算被误判为恐怖分子或罪犯,从而面临监禁乃至处决(Alderman, Daniel, & Ray, 2018年)。
现代战争中人工智能(AI)的应用已引发严峻伦理困境与挑战。随着技术发展,人工智能在军事行动中的使用正日益影响作战效能、目标精确度及决策流程。然而,此进步亦伴随隐忧:包括潜在的人权侵犯、人工智能决策失准、人类问责弱化,以及违反国际人道法(IHL)的风险。缺乏有力的道德标准与法律框架来规范人工智能在战斗中的应用,加剧了这些问题,进而引发对创新与问责间张力、技术对平民的影响及自主性在杀戮决策中作用的担忧。为确保人工智能在战争中的使用符合道德标准与国际规范,必须严格审视这些难题。
本研究旨在探究这些伦理问题,聚焦自主系统带来的挑战,强调建立全球监管框架的必要性,并应对现代战争中人工智能开发与应用引发的伦理议题。本定性研究采用二手数据分析法,援引来自在线资源、教科书、期刊论文、会议记录和报纸的可信数据源,运用主题分析法识别并解析数据模式。