本文剖析现代冲突向算法战争的深刻转型,揭示人工智能驱动的决策、监视及自主武器系统如何迅速成为全球军事战略核心,且常忽视人类监督与伦理约束。从英国的"数字瞄准网络"到以色列争议性"薰衣草计划",算法系统正加速战争节奏——某些情况下更提升杀伤效能——同时模糊责任归属并加剧平民伤害。这一技术转向正超越监管框架发展速度,引发关于"有效人类控制"弱化、数据权利侵犯及私营科技巨头垄断军事决策的紧迫质疑。报告指出算法战争的全球扩散标志着暴力逻辑的危险质变。
若论21世纪战场最显著特征,算法战争已脱离科幻范畴成为现实。随着英国政府于2025年5月宣布新增逾10亿英镑国防预算加速战场人工智能应用,自主系统部署正快速成为国家防御条令的新常态。
此转型的核心是英国防部新推出的"数字瞄准网络"——全面战略防御评估的组成部分。该系统承诺实时融合人工智能、卫星数据链、无人机与前线部队,从而实现更快速、更高杀伤效能的决策。防长约翰·希利在未详述对平民影响的情况下,宣称此举对适应"键盘即武器"的"战争新时代"至关重要。
英国的数字化转向并非孤例。乌克兰前线运用AI实时识别打击俄军目标已成西方军队范本;以色列部署先进AI系统(如恶名昭彰的"薰衣草计划")使加沙成为21世纪作战试验场。
若此即为战争新形态,其面目实属狰狞。据披露,"薰衣草"在2023年攻势初期编制了含3.7至4万名疑似哈马斯人员的杀戮名单,在极弱人工监管下酿成大规模平民伤亡。该系统自报10%错误率(实际可能更高)意味着毁灭性后果——不计其数的巴勒斯坦人(多为妇孺)死于AI指挥控制之下。
此类数字进展映射出更广泛趋势:西方军事AI在脆弱破碎的国际监管中快速扩散。这些系统绝非中立工具,其加速战争节奏的同时,使战争更不透明、更无问责、对平民更致命。随着监视与打击、目标与嫌犯、人类监督与机器自主的界限日益模糊,道德、法律与政治影响深远。
本报告旨在解构算法战争的崛起,通过追溯其起源技术及衍生的伦理困境展开分析。当前防务技术正超越监管框架狂奔,全球军队将AI奉为力量倍增器却未充分反思人道代价。报告论证指出:对此类技术的日益依赖不仅是技术转型,更是暴力语法的危险质变——其威胁在于割裂战争与人类控制、责任约束及克制原则的根本联系。
近二十年当代冲突的特征体现为向远程战争战术转型及地面部队逐步撤离,而武装对抗正被算法战争(AW)支撑的新远程时代快速重新定义。
这个被部分学者称为"AI军备竞赛"或第三次战争革命的新纪元,其AI技术快速扩散及大规模融入现代战场的背景,是监管响应的严重缺位与透明度匮乏。随着以色列国防军(IDF)前述"薰衣草"系统及美国防部"专家计划"等全功能AI系统投入实战,算法战争的人道代价日益显现。
广义而言,算法战争指算法(本质上是编码指令集)在军事决策、技术及武器系统中的整合与依赖性增强。算法工具涵盖从自动化到全自主的广泛谱系,近年更延伸至人工智能(AI)技术领域。
自动化与自主应用系统(如制导导弹与防空系统)设计用于在有限人工干预下识别打击目标,而通常被称为"基于AI的决策支持系统"(AI-DSS)的工具,则被理解为支撑此类子系统自主性的高阶"使能器",旨在增强人类决策能力。
需着重指出:目前尚未形成此类系统的统一定义与分类标准。例如关于制导弹药是否属于自动化或自主武器的争议,以及"人在环内"等分类框架的重叠现象,均凸显算法战争领域仍存在认知模糊。
尽管当今理解的AI与算法战争相对新兴,但反无人机系统、防空系统及主动防护系统等自动化武器因深度学习突破已存在多年。这些系统采用模仿人脑神经网络的算法,可通过大数据集与AI实现自我训练。近几十年算法技术更具创新性的转变,是从依赖确定性算法转向非确定性算法——后者运用机器学习而非预设人工输入,常产生不可预测的输出结果。
当前公众对算法战争的认知,主要源于以色列国防军在加沙地带的攻势及其商用AI模型在监控瞄准中的应用。迄今最广受记载的AI-DSS包括"薰衣草"与"福音"系统,前者通过手机数据行为监控分析追踪人员目标,后者锁定基础设施目标。美国防部"算法战争跨职能小组"(即"专家计划")采用类似机器学习技术处理识别监控影像中的目标。
将商用AI模型融入现代武库的结果,不仅是向AI-DSS演进,更是构建"杀伤云"这种更广泛、持续性的监控基础设施——缺乏该基础设施这些系统将失效。同期还催生被称为"原型战争"的新作战理念,该理念推崇实验精神并将失败合理化视为进步必然。
监控常态化为军事目的外包实验性战争,仅是算法战争负面效应的两大表征(下文将详述)。但可明确的是:军事领域与公众认知中对算法战争的普遍不确定性,正阻碍形成共识性理解。
当前现代战场部署的多种算法系统正加剧对平民的威胁,其威胁维度既体现于武器部署范围与规模的扩张,亦反映在监管庞杂技术体系的现实困境。尽管军事领域对算法技术创新的保密性阻碍了全面技术探索,以下仍列举部分已知系统与算法技术案例。
以俄乌战争为例,其通过网络入侵获取并存储海量"大数据"资源,目标直指政府、企业与私人敏感数据库。但超越间谍功能范畴,利用数字公共空间塑造叙事逻辑,在目标社会播撒分裂种子。通过操纵推特、谷歌等科技巨头的核心算法,得以放大对立内容、散布虚假信息、侵蚀制度公信力。
这种数据窃取与信息战融合的双轨策略,对传统军事思维构成深层挑战。网络行动可绕过常规军事防御,直接冲击国家社会政治结构。当对手不仅能操控民众所见所闻,更能扭曲其认知框架时,便实现了从内部瓦解社会肌体,大幅降低武力介入需求。
随着网络战场扩张,军民目标界限日趋模糊。电网、金融系统、通信网络等关键基础设施已成为新型冲突的前沿阵地。算法操纵与社交媒体"僵尸军团"的隐蔽部署尤其阴险——其煽动公众情绪的手段既难察觉更难反制。
此战争新形态下,信息控制(涵盖获取与认知双重维度)已成战略要务。俄乌战争案例表明:数据与算法操纵不再仅是商业工具,它已升级为现代治国方略的暗影武器,虽潜伏于阴影却足以重创治理根基。
乌克兰在融合新兴技术提升防御能力方面展现出创新性。乌军广泛运用依赖卫星导航与精细地形数据的无人机,通过"机器视觉"实现自主精准识别目标。除空基装备外,乌军还部署英国"BAD.2机器狗"作为地面无人系统,在堑壕战险境中执行侦察任务。这些机器人单元在城市巷战与近距交战中价值凸显,可在降低人员风险同时提供实时情报。
关键在于,乌克兰政府不仅采用算法化与AI赋能的作战平台,更主动推进协同开发模式。通过寻求国内外合作,乌方持续优化扩展武备体系,形成能快速响应战场挑战的敏捷型国防制造业,为尖端技术融入现代战争树立典范。
美英等国据信也在开发类似系统,重点是利用LLM处理开源情报海量数据。这反映技术先进国家将AI驱动分析与传统监控能力融合的宏观趋势。
最具争议的AI监控应用当属AI决策支持系统(AI-DSS)。以色列研发的绰号"爸爸去哪儿"系统,延续早期"薰衣草"系统逻辑,专用于识别追踪进入住所的疑似武装人员。此类能力引发严峻伦理法律质疑,涉及算法系统使用致命武力的责任归属及误用滥杀风险。
需特别指出:上述系统虽均依赖算法技术,却承载不同战略功能。乌克兰机器狗则严格限定非城市战区的防御用途。
建立全面监管框架困难重重,并引发各系统伦理影响的情境依赖性思考——若部署环境改变,伦理风险是否异化?这些不确定性亟需开展批判性审视。
算法战争系统的效能不仅取决于设计质量,更依赖于训练数据的质量。然而数据来源及其获取代价却鲜受关注。驱动军事AI的数据集常采集自数字平台、开源通信、生物特征数据库及商业监控基础设施。多数情况下,这些数据未经平民知情同意、缺乏监管约束、无明确使用限制,其影响兼具政治与技术双重属性。
在加沙等冲突地区,被占领土不仅沦为武器试验场,更成为民用生活数据的大规模采集与算法解析实验室。手机元数据、人脸识别档案、截获通讯及行为分析数据正被源源不断汇入军事数据库。这些数据不仅是监控原料——更被用于训练优化AI瞄准系统,构建可导致致命后果的预测性画像。
此类实践引发严峻的数字权利与主权问题:冲突区提取的数据归属权何在?军方及其私营合作伙伴对数据商品化所涉平民承担何种义务?现有防护机制能否阻止商业监控工具转为军用?
当国家放任训练数据的获取、存储与应用不受监管,其构建的算法战争机器不仅输出结果难以追责,更在伦理根基上存在根本缺陷。这不仅是合法性问题,更是正当性危机——基于无声收割平民生活数据的战争模式,与国际人权法所立基的人类尊严及知情同意原则存在根本冲突。当平民在不知情中成为军事AI的训练样本,其数字身份实质上被殖民化。这种系统性剥削不仅侵犯个体权利,更侵蚀战争伦理的根基——若连训练数据的获取都建立在压迫之上,算法战争所谓"精准打击"的道德外衣便不攻自破。
算法战争的崛起——尤其涉及AI决策支持系统(AI-DSS)的领域——因缺乏监管而对人类安全构成最大威胁。尽管尚未建立具有法律约束力的自主武器与算法技术使用规范,但国际社会普遍认同现有法律适用于自主武器使用,特别强调各国必须遵守区分原则、比例原则及攻击预防原则。
自2013年起,致命自主武器(LAWS)议题在联合国《特定常规武器公约》(CCW)框架下持续讨论。该公约作为核心国际人道法文书,旨在禁止或限制具有过度杀伤或滥杀效应的武器。公约包含五项关键议定书,详细规定不同武器的限制与禁令,例如第三、第四议定书分别禁止燃烧武器与致盲激光武器。
公约通过后于2016年设立政府专家组(GGE),主导致命自主武器的治理讨论并提出建议。尽管该小组已发布11条指导原则及动态文本提出潜在监管路径,但因公约的协商一致机制赋予异议国家否决空间,其实际效力广受质疑。
值得欣慰的是,联合国大会于2024年以166票赞成通过致命自主武器系统决议,呼吁2025年在纽约举行公开磋商以加速制定约束性规范,防止自主武器系统在全球扩散。但需注意:《特定常规武器公约》未明确提及人工智能或算法技术。尽管联合国大会另通过关于军事AI应用的决议,其关于加强监督与国际合作的建议仍属非强制性,凸显监管体系尚存完善空间。
区域层面,欧盟2024年实施《人工智能法案》,为开发者与分销商制定基于风险的分级规则。该法案虽迈出监管步伐,却未涵盖军事化AI领域,仅聚焦边境管控等"高风险"场景及有害AI操纵等"不可接受风险"。耐人寻味的是,法案仅将关键基础设施AI安全组件失效列为"生命威胁"风险,却未将其归入"不可接受"类别。北约AI战略倡导负责任军事应用,并承认AI的广泛危害(如AI虚假信息运动的社会影响)。
尽管各界期待综合性约束框架正在酝酿,专家强调临时限制与非约束措施的价值不容忽视。近期兴起的"军事领域负责任人工智能峰会"(REAIM Summit 2024)等论坛虽显示国际监管共识增强,但当前监管缺位与监督薄弱仍可能导致国际人道法被随意解读、算法工具被滥用,从而加剧平民风险。
算法战争的人道代价呈现多维度扩张态势。除却算法技术与国际人道法在区分原则、比例原则层面的根本冲突,其人类影响更衍生多重伦理挑战。
学界普遍认为精确打击与技术化"杀伤名单"增加平民伤亡风险,而"杀伤云"体系因高度不透明性使伤害效应更为凸显。透明度缺失引发的问题贯穿打击前后环节:打击前环节存在目标选择准确性存疑、算法工具研发部署缺乏透明度等问题。随着算法瞄准系统融入军事架构,战斗员与平民界限日益模糊——尤其当人口识别算法内置社会偏见时。此类偏见的深层影响是巩固西方霸权与殖民遗产,使错误瞄准决策持续对全球南方社群造成不成比例伤害。
打击后环节则面临伤亡统计困境,尤其缺乏验证算法技术直接致害的机制。更受争议的是算法战争的追责真空:责任能否归咎于机器?如何确定责任主体(个人或国家)?这对受害者救济意味着什么?追责理论常表现为义务论质疑,强调维护人类尊严与"有意义人类控制"原则的必要性——但在以技术发展合理化伤害的"原型战争"实验文化中,这些原则形同虚设。AI-DSS的威胁在此尤为突出,因其常被误认为在人类监督下运行,从而虚假契合"有意义人类控制"原则。
需重新审视AI的自主程度:技术层面而言,即便高级深度学习在初始训练阶段仍依赖人类输入以塑造程序输出轨迹。若军事化AI本质是西方为压制对手而培育的实验文化产物,这些技术究竟属于数字异域,还是与"人类"的关联远超预想?此观点引申出关于"有意义人类控制"定义边界、人类"输入"范畴的争议,并指明军事化AI分阶段监管的研究方向(如输入与执行阶段划分、人机代理权比例分配、各阶段差异化监管策略)。
文化层面,算法战争引发监控常态化、公众机构信任度、跨文化AI认知等深层拷问。新近研究开始探讨AI在战争集体记忆中的角色,但对其是否支持或破坏文化进程尚无定论。部分观点呼应远程战争批判,指向战争心理疏离的常态化;另一些则触及更隐蔽的争论,如算法技术对军人的心理影响。
算法战争的边缘化批判关注其对战略稳定的潜在冲击:技术扩散速度远超监管讨论进程,军备竞赛风险与动武门槛降低构成双重威胁。基于此,学界呼吁通过新增《日内瓦公约》议定书实现AI军控国际监管,但鉴于AI技术民用起源特性,此举实施难度显著。
这些忧虑仅呈现当前军事算法伦理争议的局部图景。困局悬而未决的事实,再次印证算法战争的新生性与模糊性正阻碍国际监管共识的形成。
随着算法系统在目标识别、威胁分析与决策中日益占据核心地位,军队内部正发生一场隐蔽却深刻的变革:人类劳动的质变。基于人工智能的决策支持系统(AI-DSS)扩张不仅是武器库的增容,更重构士兵职能、重定义军事判断、掏空传统专业技能。
曾受训解析情报、评估比例原则、基于训练与伦理推理实施秒级决策的士兵分析师,其认知功能正被外包至不透明的计算系统。人类操作员日益降级为监督角色,承担验证机器输出的任务,却常缺乏质疑所需的反应时间、专业训练或授权权限。在此语境下,"人在环内"机制已从安全阀退化为橡皮图章。
此转变蕴含三重深远影响:
其一,导致军事人员技能退化,削弱机构否决机器决策的能力;
其二,重塑法律伦理责任——若人类角色沦为表演,责任链条将永久模糊;
其三,瓦解"有意义人类控制"原则根基。该原则虽被国际法律伦理论述广泛援引,但当相关人类丧失实质决策权时,其功能性实质已然掏空。
随着数字化战争节奏加速,将作战简化为"确认-执行"流程的诱惑日增。但此举可能构建出既不需要亦无可能进行伦理思辨的体系。损失不仅是实用性的,更是道德性的——它标志着军事行动核心的人类良知正在消蚀。
算法技术的迅猛崛起及其灾难性后果,很大程度上可归因于持续膨胀的军工复合体。算法战争发展的核心考量在于私营科技部门在新系统扩散中的作用。
微软、谷歌、亚马逊等科技巨头与帕兰提尔、安杜里尔、赫尔辛基AI等军事AI初创企业,正以加沙与乌克兰战场为"AI战争实验室"谋取利益。这种由企业编程提供军事软件的平台模式,正导向防务科技垄断的必然结局。垄断引发广泛忧虑:既关乎企业通过软件施加的影响力,亦涉及"颠覆防务市场"等叙事操控,更牵涉实验主义价值观与自由民主保护间的根本矛盾。
科技巨头与初创企业的关键地位衍生额外隐忧:技术公司对其成果后果的道德疏离,及其应担责任边界。风险资本的大规模涌入与市场垄断的锁定效应,使国家对这些企业及其产出的监管效力存疑。
尽管曾有迹象显示科技企业重估军事化AI投入(如谷歌2018年因内部抗议终止与五角大楼"专家计划"合作),但其母公司字母表已推翻立场解除武器化AI禁令。这不仅揭露私营科技部门反复无常的道德缺位,更因当前缺乏针对军工复合体的监管磋商而愈加危险。
只要军事-科技融合仍处监管真空,这些系统的扩散及其灾难性影响将日益加速。绝不能放任此局。
当前由AI系统持续进化与军工复合体收紧塑造的军事格局,正对全球及人类安全构成日益严峻的威胁。
个体层面,算法战争危及平民人身安全与人类尊严,剥夺其获得救济与实质正义的权利;
结构层面,算法技术加深全球不平等、模糊制度问责、将先发制人与监控逻辑常态化——现行国际法律框架对此尚无应对之策。
当防务科技企业日益掌控武装冲突与国际安全的未来,全球算法战争对话的紧迫性空前凸显。除亟需建立军事算法工具负责任使用的国际约束机制外,国际社会必须持续推动技术创新部署的透明度、问责制与民事监督强化。
未来议程必须持续审视三大关键:广泛应用的算法技术谱系、技术实施导致的伤害类型、AI应用对权力结构与殖民性的固化效应。
鉴于实验性技术在防务领域将持续扩散,兹提出以下建议:
• 确立"有意义人类控制"等术语的共识定义,消除现有法规与公共论述矛盾,助力新国际框架有效实施;
• 紧急构建国际监管框架,规范军事算法应用并监控军工复合体扩张;
• 要求政府与私营科技部门提升透明度以实现有效问责;
• 公民社会需开展认知运动揭示算法战争后果,倡导技术监管并向政府企业施压改进问责实践;
• 持续的员工抵制(如谷歌重返武器化AI引发的短期抗议)仍可能制约企业军事AI参与,至少可延缓内部对算法战争的麻木进程——我们仍怀此望。
算法战争的崛起或许是自人类铸剑以来最剧烈的战争形态变革。它标志着一个深刻转折点——不仅关乎作战方式,更关键的是人类如何面对代理权、问责制及技术权力的道德边界等根本命题。
当生死抉择这种最具人性的权能被赋予算法,机器逻辑与称之为"良知"的界限将以惊人速度模糊。请确信:应对的已非普通战争工具,而是重塑暴力语法的系统。
参考来源:aoav