人工智能(AI)是一项革命性的技术,它正在覆盖生活的方方面面,从聊天 GPT 到医疗保健、教育、农业、社交媒体、广告、客户服务、金融服务和运输。然而,它正在彻底改变战争和国防。世界主要大国已经开始竞相将人工智能引入现代战争。目前,人工智能的应用还很有限,也许只是让算法控制单个武器或无人机群。然而,它正在快速改变现代战争的方方面面。正如巴基斯坦驻联合国代表所表达的担忧:"我们正站在新一轮军备竞赛的风口浪尖,算法将在其中占据主导地位。随着人工智能走向战场,我们有理由问,人类是否以及在多大程度上将继续控制人工智能并掌握'开关'"。鉴于人工智能在包括战争和国防在内的生活各方面日益普及,我们有必要研究一下它在核威慑和未来核态势中能发挥什么作用(如果有的话)。
美国和俄罗斯的冷战核历史中充斥着发出错误警报但最终没有导致意外核冲突的事例。然而,如果由人工智能来评估信息并发起核反击,那么很有可能会发生核冲突。
人工智能已经得到了应用,未来在全球核威慑架构中的潜在应用可能还会增加。机器学习和自主性是人工智能中与核威慑相关的两个要素。人工智能可能在核威慑架构的四个关键领域发挥作用:预警和 ISR、指挥和控制、运载系统以及网络等非核行动。机器学习和自主是人工智能与核威慑相关的两个要素。
人工智能驱动的早期预警系统可帮助探测和分析潜在的核威胁,如导弹发射或核设施的异常活动。人工智能算法可以快速处理来自各种传感器、卫星和情报来源的大量数据,为决策者提供更快、更准确的信息。此外,机器学习还可用于赋予任何类型的 ISR 系统更多感知智能。人工智能驱动的自主系统,如无人机(UAV)或无人潜航器(UUV),已被广泛用于监视、情报收集和监控对手的活动。
人工智能可以帮助决策者评估核威胁并制定适当的应对措施。它可以分析多种变量,如对手的能力、意图和历史数据,以评估威胁的可信度和严重性。机器学习算法可用于情报数据的交叉分析,从而更快、更可靠地确定核攻击的准备工作是否正在进行。人工智能还可以模拟不同的情景,评估不同应对方案的潜在后果。
从本质上讲,机器学习可提供更强的态势感知能力,并可能为决策提供更多时间。相比之下,自主系统可提高有核国家在预警和 ISR 方面的遥感能力。
核武器专家和决策者似乎普遍认为,不应将自主性纳入核指挥与控制系统。不过,它可以用来加强网络安全措施,保护核设施和系统免受网络攻击。人工智能算法可以持续监控和分析网络流量,识别潜在威胁和漏洞。它们还能协助快速检测和应对网络漏洞,最大限度地减少对手可能造成的破坏。
许多核运载系统已经使用了某种程度的自主性。洲际弹道导弹(ICBM)和潜射弹道导弹(SLBM)一旦发射,就能自主运行,因为它们依靠自动化来设定飞行轨迹并导航至目标。人工智能的作用主要在于提高运载系统的质量。各国可能已经在运载系统中使用了一些人工智能元素。据报道,俄罗斯已研制出 "波塞冬 "洲际核动力核武装自主鱼雷,据说射程达 1 万公里,航速 56 节,并能下潜至 1000 米深处。目前尚不清楚该鱼雷的自主能力有多大,但可以假定,在作出发射决定后,自主能力将开始运作,这可能是其作战环境的要求。美国可能还在建造一种具有双重能力的轰炸机--B-21 "突袭者",据说它将 "选择性地有人驾驶"。美国尚未明确表示是否准备在携带核武器的同时远程操作该轰炸机。印度的远程亚音速巡航导弹 "涅尔巴伊"(Nirbhay)也可能使用人工智能来实现机动性和精确打击。据悉,印度正在研究一些人工智能能力和系统,这些能力和系统未来可能有助于加强综合预警系统;多智能体机器人框架(MARF)系统,用于机器人在监视和侦察方面的协作;以及使用人工智能增强功能和自主性的无人系统,如 Matsya UUV 和自主无人驾驶研究飞机(AURA)计划。
人工智能可用于具有重要战略用途并对核威慑产生间接影响的非核领域。这些领域包括常规高精度打击、导弹、空中和太空防御、网络战、电子战、信息战以及核武器的实体安全。与核威慑相关的最重要应用是导弹和防空系统。几十年来,BMD 系统一直依赖于自动化,使用一种称为自动目标识别(ATR)的人工智能技术,该技术可以探测、跟踪、优先处理和选择来袭的空中威胁。人工智能的进步可以提高探测和跟踪来袭导弹的效率。人工智能还在反制措施中发挥作用。此外,自主性也是网络防御架构的一部分。然而,自主性的进步使进攻和防御系统都更加高效。
图:人工智能在核威慑中的潜在用途
虽然人工智能已被部分纳入世界各地的核威慑架构,但与之相关的危险也不少。任何国家采用或认为采用了新的人工智能能力,都可能使有核国家担心其核威慑力量的生存能力和可靠性。这种人工智能与核安全的两难境地可能导致反制措施,从而破坏核稳定。将人工智能纳入军事系统可能会增加因技术故障或未经授权的使用而意外升级为核冲突的风险。
人工智能系统依靠大量数据来执行任务。因此,数据有时可能有偏差、不完整或不准确,从而导致结果或结论有偏差。蓄意对提供给人工智能系统的信息或预警或无人系统或发射器进行数据毒化,可能会被用来欺骗人工智能,使其相信核打击即将到来。在假设场景中,非国家行为者可以利用人工智能增强型网络战术来操纵信息和传播阴谋论,或破坏指挥、控制和通信系统、预警卫星和雷达。他们可能通过入侵指挥和控制系统,向对手发送错误信息或关于对手的错误信息,导致事态升级。因此,第三方行为者手中的人工智能工具有可能将核对手卷入冲突或引发核战争。
詹姆斯-约翰逊(James Johnson)在其著作中指出,人工智能的进步可能会让对手瞄准核资产;用人工智能-网络武器攻击核指挥、控制和通信系统;以及使用成群的无人机打击军事资产。他还宣称,人工智能算法可能会曲解对手的信号,使核危机中的决策变得复杂。
还有人担心,虽然核危机中的决策过程已经非常仓促。即使只是在传感器和目标定位方面有限地使用人工智能,也会进一步缩短本已有限的决定是否发动打击的时间。这将增加误判或非理性选择的风险。
在卫星和其他情报探测系统中使用人工智能也存在风险,这将使隐藏武器和装备核武器的潜艇变得更加困难。这将有可能降低门槛,并鼓励核武器国家在冲突中更早地部署核武器,以防敌人将其消灭。
随着人工智能技术的应用日益广泛,它很可能会增加事态升级的风险。即使人工智能没有做出武器发射的决定,人工智能工具也会影响决策的每一个阶段,最终影响人机动态。因此,人工智能在本已不可接受的危险程度上又增加了一层风险。
联合国秘书长在其 "和平新议程 "提案中指出,"人工智能日益普遍,加上其快速扩展性、缺乏透明度和创新速度,对国际和平与安全构成潜在风险,并带来治理方面的挑战"。他还强调,"为恐怖主义、犯罪或国家目的恶意使用人工智能系统可能会造成可怕的死亡和破坏,造成广泛的心理创伤和深刻的心理伤害,其规模难以想象"。人工智能支持的网络攻击已经瞄准了关键基础设施以及我们自己的维和行动和人道主义行动,造成了巨大的人类痛苦。此外,包括犯罪分子和恐怖分子在内,获取信息的技术和资金门槛都很低。因此,联合国秘书长强调 "人工智能的军事和非军事应用都可能对全球和平与安全造成非常严重的后果"。此外,"人工智能与核武器、生物技术、神经技术和机器人技术之间的相互作用令人深感震惊"。生成式人工智能具有巨大的潜力,可以在很大程度上造福于人类。它甚至被称为新的大规模杀伤性武器。他敦促 "人类的机构和控制对于核武器至关重要,永远都不应取消"。
鉴于在核武器结构中使用人工智能所带来的危险,即使人工智能目前尚未完全融入,但现在就开始讨论有核国家和国际安全界可以探索的方案,以防止和减轻人工智能以及核武器系统的军事应用可能对和平与稳定造成的风险,也为时不晚。各国应采取一系列措施:
最近几周采取了一些举措来规范人工智能的使用。七国集团就《广岛进程国际组织开发先进人工智能系统行为准则》达成一致,"以在全球范围内促进安全、可靠和值得信赖的人工智能"。美国总统乔-拜登(Joe Biden)发布了一项行政命令,为人工智能的 "安全和安保 "制定了新标准,而英国则主办了首届全球人工智能安全峰会。然而,在将人工智能用于武器和军事技术方面,还有很多工作要做。联合国第一委员会批准了关于致命性自主武器的新决议,在这方面取得了进展。
人工智能无处不在。无论我们喜欢与否,它都已进入现代战争和战场。人工智能已被纳入世界各地的核威慑架构。虽然人工智能在核威慑架构的某些领域具有一定优势,但让人工智能完全自主将是灾难性的。与此同时,人工智能技术的发展显然无法阻挡。人工智能迟早会在核武器综合体中占据重要地位。审慎的做法是为即将到来的一切做好准备。然而,当务之急是,各国应坚定地让人类参与其中,而不是依靠机器或计算机来做出发射核武器的决定。在利用人工智能进行核威慑时,必须格外谨慎。确保人工智能系统的可靠性、透明度和道德使用,对于防止意外后果或冲突升级至关重要。密切的人工监督和负责任的人工智能开发实践是确保人工智能有效、安全地融入核威慑战略的必要条件。最重要的是,世界各国必须就人工智能在军事技术中的使用制定规范、规则和原则,并颁布国际法。
参考来源:INSTITUTE OF STRATEGIC STUDIES ISLAMABAD