最近,以色列国防军(IDF)的高级军官承认,作为以色列军事武库的一部分,人工智能工具的使用越来越多,这一趋势在 2023-2024 年的以色列-加沙战争中也很明显,在这场战争中,可以看到以色列国防军如何部署基于人工智能的系统,以满足防御需要、指挥和控制、收集、处理和管理数据,以及用于进攻目的。
一方面,可以说在军事领域引入基于人工智能的工具在提高现有能力方面是有价值的。另一方面,引入不受国际法管制的新型工具会引发大量法律和伦理问题,并进一步加剧战争的复杂性--"不确定性的领域"。为了对越来越多的评估这两方面以及介于这两方面之间的问题的文献做出贡献,本文将把以色列的经验作为一个测试案例,以思考前进的正确方向。
以色列在技术领域是一个精通技术的行为体,它利用自己的能力作为外交工具箱的一部分,以确立自己在国际技术治理设计中的领导地位。以色列对技术优势的需求源于其面临的局势,这一点从针对以色列目标的网络攻击的增加,尤其是在 2023-2024 年以色列-哈马斯战争期间可以明显看出。
从以色列的经验中可以了解到,人工智能在全球范围内的广泛融合,在生成式人工智能工具的推动下,已经深入到军事领域。特别是,以色列国防军在以下方面应用了人工智能: (1) 主动预测、威胁警报和防御系统;以及 (2) 情报分析、瞄准和弹药。这一趋势在 2023-2024 年以色列-哈马斯战争期间有所加剧。
基于人工智能的工具可以检测、预警,有时还能预先阻止灾难性场景的发生,并有助于有效的危机管理。因此,就像北约一样,以色列国防军也利用人工智能技术来改善灾难响应(例如,通过分析航空图像来识别风险和受害者)。正在使用的一个值得注意的系统是 "炼金术师(Alchemist)系统",它似乎同时具备防御和进攻能力。该系统将数据整合到一个统一的平台上,有能力识别目标,并及时向战斗人员通报可疑动向等威胁。该系统已在2021 年的 "长城守护者行动 "中部署。
此外,"铁穹"是以色列的一种导弹防御系统,以其保护重要基础设施免受发射到以色列境内的火箭威胁的救生能力而闻名。在 2023-2024 年以哈马斯战争中,尽管从加沙、黎巴嫩和其他地区(如叙利亚甚至也门)发射了火箭弹,但面对无人机和其他小型低空飞行物体等各种威胁,该系统仍能实现低伤亡。
Axon Vision 公司开发了另一种名为 "Edge 360"的防御系统。这种基于人工智能的系统安装在目前在加沙作战的装甲车内,可从各个角度探测潜在威胁,并及时向车辆操作员发出警报。最后,以色列国防军还将人工智能用于边境管制。
要处理现代战场上大量涌入的数据,必须整合基于人工智能的工具来分析大量数据。以色列国防军使用的 DSS 之一是 "火力工厂",它可以分析大量数据集,包括以前授权打击目标的历史数据,从而计算所需弹药数量,提出最佳时间表,并确定目标的优先顺序和分配。在操作上,它是目标选择周期第二阶段(目标开发)和第三阶段(能力分析)的综合体。
另一个最近引起争议的系统是 "福音 "系统,它能帮助以色列国防军军事情报部门改进建议并确定关键目标。早在 2021 年 "长城守护者 "行动期间,该系统就已生成了200 个军事目标选项,供正在进行的军事行动期间进行战略交战。该系统可在数秒内执行这一过程,而在以前,这项任务需要众多分析人员花费数周的时间。
第三个值得注意的系统是“织火者”(Fire Weaver)系统,这是一家私营公司--拉斐尔公司开发的一种新颖工具。这种网络化的 "传感器-射手 "系统将情报收集传感器与战场部署的武器连接起来,促进了目标识别和交战能力。Fire Weaver 系统侧重于处理数据,并根据位置、视线、有效性和可用弹药等因素为不同目标选择最佳射手。该系统旨在提高与协同作战的不同参与者同时工作的能力,以提高精确度,最大限度地减少附带损害,并降低友军误伤的风险。
最后,据972+ 媒体最近报道,以色列国防军部署了一个名为 "薰衣草 "的人工智能系统,据称该系统在 2023-2024 年以哈马斯冲突的早期阶段发挥了重要作用。该系统旨在将哈马斯和巴勒斯坦伊斯兰圣战组织军事分支中可能的可疑分子标记为潜在目标。972+ 报告指出,在这种情况下,人工核查据称仅限于辨别目标的性别,每个目标在攻击前的平均持续时间为 20 秒,此外,报告还指出,该系统在大约 10% 的情况下会出错。最近的一篇文章中指出,这种情况可能会在目标定位中移除人类,并绕过人类参与,从而引发对人类尊严的侵犯。
不过,应该指出的是,在创建和授权军事目标的链条中,"972+"文章中提到的过程只是一个非常初步的过程。这是因为情报官员做出的决定随后会传达给目标室--在目标室中,法律顾问、行动顾问、工程师和更高级的情报官员会在批准(有时也会拒绝)之前对建议的目标进行修改。因此,"薰衣草 "的使用仅限于情报收集阶段,在这之后,建议的洞察力仍需在目标室由法律顾问等进行核实,法律顾问将根据区别、相称性和其他适用的国际人道主义法规则评估是否应攻击目标。
联合国大会最近对军事领域新技术应用的出现表示关切,特别是与人工智能相关的应用,这些应用 "从人道主义、法律、安全、技术和伦理角度 "构成了严重挑战。其中一个关键问题是决策过程(环内/环上/环外)所需或必要的适当人类参与程度。这一问题对以下三个关键目的具有重要意义:提高决策的准确性和精确性、增强合法性和确保问责制。这一点在人工智能系统(如 "薰衣草"、"福音"、"织火者 "和 "火力工厂")的目标定位中尤为重要。
目前看来,人工智能系统在完全没有人类参与的情况下自主瞄准个人的情况没有法律依据,因为国际人道主义法规定的门槛是合理的军事指挥官(即人类指挥官,其评估标准不适用于基于计算机的人工智能系统)。因此,红十字国际委员会指出,保持人类的控制和判断力至关重要。根据以色列的做法,目前以色列国防军指挥官在目标选择方面拥有最终决策权。尽管如此,最近还是有人对 "福音 "和 "薰衣草 "等系统在目标选择过程中人工参与的程度和效果提出了批评。
在这方面,值得注意的是习惯性预防原则。该原则规定,策划攻击者有积极义务'尽一切可能核实'个人或目标的军事性质。这一原则还包含经常注意的义务,要求在进行军事行动时,应经常注意不损害平民和民用物体。
事实上,人工智能系统生成目标的速度很快,加上指挥官进行全面审查的时间有限,令人担忧这种情况可能达不到用尽一切 "可行 "手段避免对平民造成伤害的义务,也可能不符合持续关注的义务。Opinio Juris 最近发表的一篇博客指出,如果军事人员无法 "深入目标",就很难看出这些系统如何有助于遵守预防原则和持续照管的义务。该博客还称,一般来说,此类人工智能系统制造目标的速度和规模,再加上数据处理的复杂性,可能会使人类的判断变得不可能或毫无意义。然而,应该记得以色列国防军在这一问题上的正式立场似乎解决了这一关切。如前所述,以色列国防军对 "福音 "和 "薰衣草 "等人工智能瞄准系统的使用仅限于情报收集阶段,即目标 "生命周期 "的早期阶段,从这个意义上说,后期阶段包括对情报收集和评估阶段的确证和监督,包括法律顾问的审查,这些审查核实所做的事实陈述,而且核实攻击在区分、相称性、预防措施和其他相关国际法规则方面是否适当。以色列国防军澄清说,"福音"在选择攻击目标时还将经过其他几个部门(作战、法律和情报部门)的单独审查和批准,这是为了确保在选择目标的决策过程中有切实的人的参与。
另一个担忧与可解释性问题或 "黑盒"现象有关。基于人工智能的系统无法对其决策过程提供清晰和可理解的解释,这是人工智能系统的一个普遍和固有的缺陷,可能会妨碍对军事事件的调查,从而影响问责制,并抑制将重复性错误的风险降至最低的能力。在这方面,以色列国防军澄清说,关于福音系统,它向情报研究人员提供了可获取和可理解的信息,这些信息是提出建议的依据,使人能够对情报资料进行独立审查。与此相关的另一个值得注意的挑战是被称为 "自动化偏见"的现象。自动化偏见是指过度依赖或过度信任人工智能输出的倾向。虽然以色列国防军指挥官可以选择无视“福音”的建议,但要避免自动化偏见仍具有挑战性,尤其是在激烈的敌对行动期间,需要加快决策速度并不断面临行动压力。
各国在武器和战争手段或方法的选择上是有限的。为了核实新能力是否符合国际法,《日内瓦公约第一附加议定书》(AP I)第36 条要求各国在实际部署新武器、作战手段或方法之前对其进行评估。与本文相关的是,"作战手段"是一个宽泛的术语,包括用于促进军事行动的军事装备、系统、平台和其他相关装置。为进攻行动部署的工具,如 "福音"、"火力工厂"、"火织者"和 "薰衣草",似乎构成了一种新的战争手段,应根据第 36 条进行法律审查。
虽然以色列不是《第一附加议定书》的缔约国,而且对第 36 条的习惯地位也有讨 论,但重要的是要回顾人权事务委员会第36 号一般性意见所采取的方法,即确保对生命权的保护需要采取预防性影响评估措施,包括对新武器和战争手段进行合法性审查。这种审查应分三个阶段进行。
首先,必须确定条约或国际法是否禁止或限制使用特定战争手段。关于人工智能军事工具,以色列国尚未批准一项条约,专门禁止在一般情况下或在军事应用中使用人工智能技术。此外,除了国际人道主义法的一般原则(如区别对待)和具体规则(如保护受保护地点的规则)之外,目前似乎也没有禁止在军事背景下部署人工智能的常规性规定。
其次,需要确定使用该系统是否会违反国际法的一般禁令(如保护环境)。
第三,应根据 "马顿斯条款 "考虑战争手段,该条款强调需要考虑 "人道原则 "或 "公共良知的要求"。在《以核武器进行威胁或使用核武器的合法性》一文中,国际法院肯定了马顿斯条款作为 "解决军事技术快速评估的有效手段 "的重要性。
在部署新的军事能力时仍需谨慎。首先,通过影响评估措施--例如根据第 36 条至 API--来评估新技术的合法性至关重要。其次,设计者和操作者必须意识到内在风险,如缺乏可解释性和偏见。这并不意味着我们建议将刑事责任归咎于设计者,因为最终的决策者是军事指挥官,但认为,设计者越是了解系统的局限性可能对其运行造成的影响,他们就越能预先处理好所担心的问题,并有望减轻这些问题。对系统操作者和依赖者进行培训也很关键,培训必须包括技术、道德和法律方面。
在一个理想和价值观日益分化的世界里,能否在前进的道路上找到共同点,不仅对未来的战场至关重要,而且对维护国际和平与安全也至关重要。这是一个动荡不安的时代,其中包括技术方面的飞跃,因此,超越狭隘的利益和考虑的必要性比以往任何时候都更加重要。
(网络资源整理)