无人机战争的下一阶段已经到来。2023年9月6日,美国国防部副部长凯瑟琳-希克斯(Kathleen Hicks)吹嘘五角大楼的 "复制者"(Replicator)计划正在加速推进--该计划旨在大幅扩大美国在战场上使用人工智能的规模。她理所当然地称这是国家安全领域 "改变游戏规则的转变"。根据 "复制者 "计划,美国军方的目标是在未来18到24个月内在多个领域部署数千套自主武器系统。

然而,"复制者 "只是冰山一角。人工智能的飞速发展正在催生新一代致命自主武器系统(LAWS),它们可以在没有人类干预的情况下识别、跟踪和攻击目标。具有自主能力的无人机和人工智能赋能的弹药已经在战场上使用,尤其是在俄乌战争中。从根据特定特征选择目标的 "杀手算法 "到自主无人机群,战争的未来看起来越来越具有启示性。

在 "战争机器人 "陆军的阴影中,人们很容易忽略正在进行的人工智能革命。五角大楼称之为 "以人为本 "或 "负责任的人工智能",旨在让人类 "参与 "决策,以确保人工智能的使用 "合法、合乎道德、负责任和可问责"。但是,即使有人类的监督和对法律的严格遵守,人工智能的使用方式从根本上违反国际人道法(IHL)和国际人权法(IHRL)的风险也越来越大。

最直接的威胁不是 "人工智能启示录"--机器接管世界--而是人类利用人工智能建立新的暴力和相互支配的模式。

无人机战争2.0

俄乌战争被称为 "第一场全面的无人机战争",标志着各国在日益网络化的战场上测试和部署致命性自主武器系统的拐点。据报道,自主无人机曾在利比亚和加沙使用过,而乌克兰战争则标志着这种技术加速融入常规军事行动,并可能带来不可预测的灾难性结果。交战方由于缺乏技术能力或意愿,可能会在没有最高级别保障措施的情况下部署无人机,因此这些风险更加明显。

乌克兰战争的教训包括,价格相对低廉的无人机可以使对手丧失空中优势,并在同级和近似同级冲突中以及在对付非国家行为体时提供决定性的军事优势。

美国和其他国家正在认真对待这些经验教训。规模和速度显然将主导未来的无人机战争,因为美国正通过 "复制者 "计划和其他举措,努力发展部署大量廉价、可重复使用无人机的能力,以应对大国等对手的风险。针对非国家行为者的离散无人机打击将越来越多地被人工智能赋能的无人机群所取代,这些无人机群可以相互通信并协同工作(以及与人类合作)摧毁关键基础设施和其他目标。

与过去的无人机战争相比,这种新兴技术给平民带来的风险更大。与由人类操作员审查和控制的传统无人机战争不同,新的无人机战争将更加自动化。从目标的选择和识别到监视和攻击,人机协作将渗透到目标定位周期的几乎每一个阶段。最大的转变将是最不显眼的,因为专有算法将筛选大量情报数据和无人机信息,编制目标清单供人类批准。

虽然人类可能会继续签字同意使用致命兵力,但人工智能将在决定谁生谁死、谁存谁亡的基本选择方面发挥更普遍的作用。

随着人工智能减少人类对杀戮的参与,无人机战争的可解释性和透明度很可能会比现在更低。这不仅对公众是如此--他们已经被蒙在鼓里--对负责实施和监督无人机项目的政府官员也是如此。

可解释性问题,即人类无法完全理解或解释人工智能产生的结果,是人工智能的一个更广泛的问题,并不局限于无人机袭击。依赖于人工智能的计算系统往往是不透明的,因为它们涉及专有信息,在学习新数据的过程中不断演化,而且过于复杂,任何单一行为者都无法理解。

但在无人机战争中,可解释性问题尤为突出。

在美国庞大的机构间进程中,军事和情报机构依靠不同的信息流、技术和官僚程序来支持无人机项目。这些机构正在开发自己的人工智能工具,这些工具是高度机密的,并且基于不与关键决策者或公众共享的算法和假设。再加上人工智能系统产生的结果无法被完全理解,政府官员将无法解释为什么某个人被误杀。

可解释性的问题将导致未来的无人机战争缺乏责任感--而这种责任感已经非常缺乏了。当平民在人工智能赋能的无人机打击中被误杀时,五角大楼官员也将能够把这些 "悲剧性错误 "归咎于机器。无人机群的情况尤其如此,来自不同制造商的无人机可能无法正常通信,尽管五角大楼在这项技术上花费了数百万美元。随着无人机开始相互对话以及与人类对话,人类决定杀人与机器执行致命行动之间的责任和合法性差距可能会越来越大。

注意差距

这些挑战是众所周知的,五角大楼长期以来一直鼓吹 "负责任的人工智能 "政策,旨在通过迷宫般的法律法规来应对这些挑战。这在纸面上听起来不错,但在对平民伤害的严重担忧浮出水面之前,传统的无人机项目也曾被宣传为 "合法、合乎道德、明智"。如果过去的无人机战争能说明什么,那么真正负责任的人工智能无人机战争同样可能难以实现,尤其是在管理人工智能使用的各种法律、伦理和政策框架出现保护空白的地方。

为此,一些国家和红十字国际委员会(ICRC)提议禁止那些缺乏有意义的人为控制、过于复杂而难以理解或解释的武器系统。在今年 7 月举行的联合国安理会关于人工智能的首次会议上,联合国秘书长安东尼奥-古特雷斯建议各国在三年内通过一项 "具有法律约束力的文书,禁止在没有人类控制或监督的情况下使用致命的自主武器系统,因为这种系统的使用不符合国际人道法"。

但是,即使各国原则上同意这样的禁令,重大问题依然存在。必须对自主武器系统施加什么样的法律限制才能确保其符合国际人道法?需要何种类型和程度的人为控制才能确保未来的无人机袭击符合国际人道法的必要性、相称性和区别对待以及预防原则?遵守国际人道主义法就足够了,还是需要一项新条约?虽然许多国家呼吁制定这样一项条约,但美国、俄罗斯和印度坚持认为,LAWS 应受现有国际人道主义法的管制。

随着新的无人机战争变得越来越普遍,据说适用于战争的特殊规则--尤其是国际人道法所提供的较低水平的保护--有可能成为默认制度。从长远来看,这种情况的实际影响是,禁止使用兵力的规定继续受到侵蚀,对国际法的解释越来越放任。这些事态发展的全部代价和后果仍在显现,但现在开创的先例很可能会以有害且不可逆转的方式损害个人权利。

为应对这一趋势,各国至少应重申国际人权法在武装冲突内外的适用性。战争的个人化和自动化促使人们转向《国际人权法》所载的原则,如在某些条件下对必要性标准进行更严格的解释,以及只有在旁观者不太可能受到伤害的情况下才使用兵力的类似规定。然而,尽管国际人权法提供了国际人道主义法之外的额外保护,但国际人道主义法与国际人权法之间的确切互动关系却存在争议,而且因国家实践而异。从根本上说,这些法律制度并不是为了规范非传统冲突和使用致命兵力的非传统手段而设计的,在即将到来的无人机战争中,法律保护方面的差距可能会越来越大。

这些空白促使红十字国际委员会强调,"有必要根据人道伦理考虑澄清和加强法律保护"。在现有条约未涵盖的情况下,《日内瓦公约第一附加议定书》第 1(2)条和《日内瓦公约第二附加议定书》序言(通常被称为 "马顿斯条款")规定,个人应受到习惯国际人道法以及 "人道原则和公众良知的要求 "的保护。

但道德方面的考虑可能与法律有很大出入。道德与法律之间的关系是一个长期的学术争论,不在本文讨论范围之内。简而言之,法律的目的不同于道德,因为它必须考虑到公约对行为的影响、现实世界中认识论的不确定性程度以及国际体系中的无政府状态。在这种情况下,用亨利-舒(Henry Shue)的话来说,道德上最优的法律可能只是那些 "能够让愤怒而恐惧的凡人在道德判断上产生相对较少的错误--相对较少的错误--挥舞着威力巨大的武器 "的法律。

然而,人工智能不可预测和复杂的性质,使得事先辨别正确行动方针的工作变得更加复杂。即使人类遵循了所有的法律和政策准则,人类决策与机器行动之间的差距也意味着结果可能并不道德。远非如此。

道德的东西未必合法或明智,反之亦然。

与此同时,政策指导并不能取代法律所提供的保护。例如,新制定的《美国总统政策备忘录》(PPM)本应在战争法规定的直接行动(即无人机袭击和特种作战突袭)之外提供更多保护。但该政策指南不具有法律约束力,可以随时秘密中止,包含大量集体和单位自卫的豁免条款,而且仅适用于美国无人机在 "现行敌对行动地区"(尤其是伊拉克和叙利亚)之外的一小部分打击行动。

此外,该政策指南是针对常规无人机袭击而制定的。当世界站在人工智能驱动的无人机战争新阶段的悬崖边时,是时候重新思考规则了。

悬崖勒马

关于监管致命的自主武器系统,包括人工智能赋能的无人机,已经有很多建议。但是,如果过去的无人机战争能够说明问题,那么这些法规很可能仍然不够完善。人的监督以及对现有法律和标准的遵守至关重要,但还不够。

为了在未来的无人机战争中更全面地保护平民,美国决策者应紧急采取以下措施:

1、制定美国政府范围内关于在无人机战争中使用人工智能的政策。虽然国防部已经发布了许多关于人工智能和自主武器系统的指导方针,但这些指令并不一定适用于其他机构,比如美国情报界。鉴于这些其他机构可能在日常识别、审查和攻击目标方面发挥关键作用,这种疏忽令人深感忧虑。

2、遵循 "两人规则"。冷战期间,两人规则要求在维修、移动或使用核武器或核材料时,必须有两名或两名以上获得授权的人员在场。这一规则旨在防止可能对人类生命构成重大危险的核事故或误用。人工智能赋能的武器也有可能造成类似的灾难性结果,因此所有无人机操作都应遵循同样的规则。

3、缩小责任差距。无人机战争中不断提高的自主性将使打击更加不可预测,从而导致无法归咎于任何特定个人的错误。为了降低这种风险,从人类批准对目标采取致命行动到无人机采取行动之间的时间间隔应尽量缩短到几秒或几分钟,而不是几天或几个月。在任何情况下,都不应允许无人机独立瞄准预先批准(人类批准)的 "杀戮名单 "上的个人。

4、开展并公布例行的人工智能健康审计。为了减少可解释性问题,人类必须检查人工智能,人工智能也必须检查自己。"检查人工智能 "可以成为道德审计的有力工具,帮助人类测试人工智能系统,找出算法中的缺陷或潜在偏见。人工智能健康检查必须定期进行,检查结果应向国会议员(如八国集团)通报,并向公众提供经过编辑的版本。

潘多拉的盒子已经打开,但决策者仍可为无人机战争中的人工智能革命设置必要的防护栏。用马丁-路德-金的话说,美国 "面临着刻不容缓的紧迫性","有一种事情就是为时已晚"。

成为VIP会员查看完整内容
67

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
21世纪战争和自主系统带来的挑战
专知会员服务
34+阅读 · 2023年11月19日
被重塑的世界?ChatGPT崛起下人工智能与国家安全新特征
专知会员服务
69+阅读 · 2023年10月23日
人工智能全球安全治理的发展态势与新动向
专知会员服务
36+阅读 · 2023年5月21日
万字译文《海战中实施人工智能的挑战》2023最新报告
专知会员服务
168+阅读 · 2023年5月6日
美国军事人工智能发展及其安全问题的思考
专知会员服务
85+阅读 · 2022年4月24日
人工智能: 国防部应改进战略、库存流程和协作指导
专知会员服务
38+阅读 · 2022年4月11日
Gartner 报告:人工智能的现状与未来
InfoQ
13+阅读 · 2019年11月29日
人工智能应用实践与趋势
人工智能学家
13+阅读 · 2019年9月20日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
A Survey of Large Language Models
Arxiv
327+阅读 · 2023年3月31日
Arxiv
57+阅读 · 2022年1月5日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关基金
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员