近年来,人工智能(AI)在各领域的应用讨论呈爆发式增长,军事作战领域亦不例外。多军事强国日益增强的AI武器化趋势被概念化为新型军备竞赛——冷战时期的核能力升级正被自主武器系统(AWS)取代(Humble, 2024)。AI在国际社会的崛起可追溯至2012年:美国防部(DoD)发布AWS使用指令的同一年,人权观察组织与哈佛法学院联合报告呼吁国际法彻底禁止AWS。此后十余年,国际法与冲突AI领域进展甚微。当前尚无国际监管机构的法律框架界定AI伦理使用(尤在战争语境),各国及其军队实质上可自由发展并参与AWS军备竞赛。

需明确:AWS究竟是什么?当前如何部署?2023年美国防部将自主武器系统定义为"激活后无需人工操作员干预即可自主选择并攻击目标"(Department of Defense 2023)。典型案例包括以色列"铁穹"防空系统、德国"螳螂"防空炮、瑞典LEDS-150防空系统;韩国"超级鹰眼II"虽属AWS范畴,但仅用于和平时期监控(Humble 2024)。此类武器在俄乌战争中亦高频使用——无需人工干预即可识别打击目标的自主无人机首次亮相大规模冲突(Marr, 2024)。乌军除使用此类"杀手机器人"外,还部署"BAD One"犬形自主机器人:可侦测敌军部署、地雷,甚至向前线输送弹药;该装备还配有自主机枪系统。乌克兰更运用AI监控补给线、安置难民、追踪部队动向,并通过人脸识别技术追捕战争罪犯。

AI在战争中加剧应用引发严峻伦理与后勤问题:AI开发者参与冲突场景的意图与"无害技术"宣称存在根本矛盾。首要关切在于AWS的固有局限——系统易受数据投毒与规避攻击(Starck等, 2022),且多场景下已证明存在识别偏差。例如AI无法准确识别深肤色个体,当人脸识别软件用于战时目标锁定,可能导致致命误判(Stewart & Hinds, 2023)。更深层问题在于:是否应赋予机器自主杀戮权?在充满道德模糊性的战争决策中,移除人类干预将对战争形态产生何种颠覆?若自主无人机("杀手机器人")无法区分战斗人员与平民,灾难性后果几乎不可避免(Humble, 2024)。下文案例进一步揭示此伦理困境。

案例聚焦:加沙地带的AI应用

作为全球最早将无人机技术投入战争的国家(可追溯至1982年黎巴嫩战争),以色列始终处于AWS技术前沿(The Economist, 2023)。自2023年10月7日哈马斯袭击以色列目标后,以军对加沙的入侵行动持续激烈。在加沙密集城区环境中,无人机通过构建建筑与地形3D模型导航定位目标的战术已被充分记录(The Economist, 2023);但以军目标判定机制长期存疑。据以情报部门内部消息,以色列使用名为"薰衣草"(Lavender)的AI系统识别确认目标——超37,000名被认定与哈马斯有关联的个体(McKernan & Davies, 2024)。"薰衣草"并非以军在加沙使用的唯一AI工具:人权观察组织披露其当前使用四类AI系统,包括追踪手机信号监控巴勒斯坦人撤离北加沙的匿名系统、生成建筑打击清单的"福音"(The Gospel)系统、判定个体军事目标的"薰衣草"系统,以及定位目标实时位置的"爸爸在哪"(Where’s Daddy)系统(Human Rights Watch 2024)。

尽管这些系统均遭国际人权组织质疑(Human Rights Watch 2024; Davies等, 2023)——尤以手机三角定位精度是否支撑军事决策("福音"系统)为焦点——"薰衣草"系统近月引发最强烈伦理争议。以色列国防军(IDF)仅笼统承认该"跨情报源交叉验证数据库"的存在(Human Rights Watch, 2024)。该系统通过机器学习为加沙居民赋分评估其关联哈马斯等武装组织的概率,其算法依赖"生活模式分析"(pattern of life analysis)——利用监控数据识别已知武装分子特征并在未知个体中匹配同类特征。鉴于AI导向的生活模式分析存在固有缺陷及未标记数据问题,"薰衣草"系统使平民面临巨大风险(McKernan & Davies 2024; Human Rights Watch 2024)。

如同生物识别追踪与预测性警务系统预设人群有罪逻辑,对加沙平民的持续监控实质预设其武装分子身份。此举不仅违反国际人道法,更催生严重误判风险——导致数千名非武装平民被锁定杀害(Human Rights Watch 2024)。以色列法律对恐怖主义的宽泛定义(涵盖巴勒斯坦人权组织、NGO等非暴力机构)进一步削弱"薰衣草"系统可信度。人权观察组织指出:"若同类宽泛定义用于训练'薰衣草'等影响打击决策的机器学习工具,其输出将复制相同偏见,加剧平民遭袭风险"(2024)。

以军在加沙及约旦河西岸(持续遭受以方占领、非法定居点扩张及巴勒斯坦村庄拆除)广泛使用AI与AWS锁定目标的行为(Human Rights Watch, 2024),引发战争场景AI应用的深刻伦理质疑——本案中肇事者却享有完全豁免权。IDF在加沙使用AWS不仅是机器学习系统误伤平民的技术问题,据《卫报》消息源透露:"我们不仅限于在军事建筑或行动中消灭(哈马斯)人员...轰炸家庭居所更为简便。该系统专为在此类场景定位目标而设计"(McKernan & Davies, 2024)。证据表明AI在加沙不仅存在误伤风险,其系统设计本质是在目标最脆弱时(尤当非目标平民高概率伤亡时)实施清除。自2023年10月7日以来加沙死亡人数超50,000(加沙卫生部数据引述自半岛电视台, 2025),AI持续锁定目标(常由乌克兰同款自主无人机实施打击)的案例,彻底背离AI"无害"初衷,成为技术反噬的扭曲范本。

核心问题

  1. 何谓自主武器系统(AWS)?其典型应用案例有哪些?
  2. AWS存在哪些优势?其应用引发哪些缺陷/担忧?
  3. AWS在乌克兰战争中如何被部署?
  4. 以色列国防军如何在加沙运用AI系统?其运作机制与数据源为何?
  5. 加沙AI应用引发哪些特定担忧?

主题反思与讨论

  • 国际法与冲突中的AI

如上所述背景与案例表明,战争AI/AWS与国际人道法的关系错综复杂。尽管无人机等AI制导系统原则上受"区分原则、比例原则及禁止无差别攻击"等战争法约束,但当前缺乏针对AI/AWS使用的专项国际法规。随着此类武器系统在全球多战场部署,法学家指出:缺乏AI战时伦理使用框架将严重挑战国际人道法保护机制,进而危及武装冲突中的平民生命。

讨论议题

  1. 为何需联合国等国际机构构建AI/AWS使用准则?
  2. 此类法规面临的最大障碍是什么?
  3. 如何监管国家AI/AWS使用并追责?国际法应允许哪些行为?
  4. 私营企业是否应被允许向国家及军队提供战时AI系统?其边界何在?
  5. 如何建立AI/AWS使用的透明度机制?
  • 生活模式分析与AWS缺陷
    冲突AI应用的最大担忧源于其固有缺陷与脆弱性。机器学习存在先天不足:无论是否经人工审批,AI/AWS精准识别目标的能力已被证实存在多重问题。系统易受数据投毒、信息失真、算法偏见影响,且常缺乏复杂战争场景所需的人类细微判别力。若系统存在根本缺陷,AI提升战争效率的目标是否合乎伦理?更甚者,基于潜在失实或偏见数据的生活模式分析进行目标识别,其伦理边界何在?

讨论议题

  1. AI目标识别系统的缺陷是否意味其应被禁用?是否存在适用场景?
  2. 生活模式分析的核心伦理问题是什么?
  3. 需人工干预的AI系统与全自主AWS是否存在伦理差异?
  4. 机器是否应被赋予判定人类生死之权?
  • 加沙战斗人员/平民锁定机制
    以军入侵加沙地带的AI应用引发超越生活模式分析框架的深层质疑。在加沙密集城区环境中,以军运用多重AI系统锁定目标并追踪平民行踪。个体持续受监控,公民因参与未知行为/网络活动被恒定标识为军事目标。以情报部门消息源更披露:AI系统专为在民用场景(如家庭居所)定位个体目标而设计——无论其是否战斗人员。鉴于当前缺乏AI作战监管框架,且锁定战区平民已违反国际法,此模式引发严重警报。

讨论议题

  1. 如何防止军队使用AI监控锁定平民?
  2. AI效率能否合理化战争"附带损伤"?
  3. 以色列法律架构如何影响目标识别标准?
  4. 以军在加沙使用的系统是否应被允许投入作战?
成为VIP会员查看完整内容
4

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
军事人工智能:乌克兰战争的经验启示
专知会员服务
31+阅读 · 4月2日
创造优势:在整个作战领域整合人工智能
专知会员服务
31+阅读 · 2024年12月12日
智慧后勤:维持作战中的人工智能前沿
专知会员服务
36+阅读 · 2024年11月17日
人工智能与仿真协同增强军事决策支持能力
专知会员服务
64+阅读 · 2024年10月2日
人工智能与美国空军的未来
专知会员服务
46+阅读 · 2024年7月22日
人工智能与无人机
专知会员服务
67+阅读 · 2024年7月13日
电磁频谱战中实施人工智能
专知会员服务
60+阅读 · 2024年4月19日
人工智能时代智能化海战模式
科技导报
21+阅读 · 2019年7月5日
深度学习与医学图像分析
人工智能前沿讲习班
40+阅读 · 2019年6月8日
美陆军计划部署四大新型地面无人系统
无人机
31+阅读 · 2019年4月30日
反无人机电子战蓬勃发展
无人机
21+阅读 · 2018年7月11日
智能无人作战系统的发展
科技导报
33+阅读 · 2018年6月29日
MATLAB计算机视觉与深度学习实战
炼数成金订阅号
20+阅读 · 2017年8月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
69+阅读 · 2022年9月7日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
10+阅读 · 2020年11月26日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
Arxiv
14+阅读 · 2018年4月18日
VIP会员
相关VIP内容
军事人工智能:乌克兰战争的经验启示
专知会员服务
31+阅读 · 4月2日
创造优势:在整个作战领域整合人工智能
专知会员服务
31+阅读 · 2024年12月12日
智慧后勤:维持作战中的人工智能前沿
专知会员服务
36+阅读 · 2024年11月17日
人工智能与仿真协同增强军事决策支持能力
专知会员服务
64+阅读 · 2024年10月2日
人工智能与美国空军的未来
专知会员服务
46+阅读 · 2024年7月22日
人工智能与无人机
专知会员服务
67+阅读 · 2024年7月13日
电磁频谱战中实施人工智能
专知会员服务
60+阅读 · 2024年4月19日
相关资讯
人工智能时代智能化海战模式
科技导报
21+阅读 · 2019年7月5日
深度学习与医学图像分析
人工智能前沿讲习班
40+阅读 · 2019年6月8日
美陆军计划部署四大新型地面无人系统
无人机
31+阅读 · 2019年4月30日
反无人机电子战蓬勃发展
无人机
21+阅读 · 2018年7月11日
智能无人作战系统的发展
科技导报
33+阅读 · 2018年6月29日
MATLAB计算机视觉与深度学习实战
炼数成金订阅号
20+阅读 · 2017年8月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员