由联合国裁军事务厅召集的2025年军事人工智能、和平与安全对话(MAPS Dialogues)旨在构建国家间知识共享平台,提升对军事领域人工智能技术影响国际和平与安全的认识。本倡议通过提供中立场所,支持各国与国际组织、民间社会、研究机构及产业界开展交流,识别务实合作领域,助推现行多边讨论进程。

本文件凝练了三次会议的核心内容:聚焦"军事人工智能:机遇、风险及国际和平安全"(2025年3月12日)与"军事人工智能领域能力建设与国际合作"(同年3月25日)两场公开网络研讨会,以及遵循查塔姆研究所原则于2025年7月2日举行的闭门会议。所提炼主题将支持成员国后续对话,包括可开展近期交流的关键领域。

两场网络研讨会共邀请九位专家主讲,分别吸引205名及187名参与者(成员国代表占50%,民间社会组织30%,国际与区域组织20%)。闭门会议有33国代表出席。三次会议全球南方国家参与度显著。

与会各方共识认为:人工智能技术可整合至多种军事功能任务中,其伴生风险与机遇取决于具体应用场景。

和平安全赋能潜力

会议确认负责任运用人工智能可为和平安全作出贡献的若干领域。与会者强调必须区分战略机遇与人道效益(如武装冲突中保护平民),同时指出通过审慎部署可实现双重效益。

首先,人工智能可强化信息处理与决策支持能力,赋能操作人员及指挥官高效处理海量数据、识别模式特征并优化注意力分配。这将显著提升实体与虚拟环境的态势感知水平与决策质量

其次,在通信降级等危险环境中,人工智能通过执行爆炸物搜索、路线清障等任务,可有效降低人员风险。在充分认知系统性能边界前提下,此类功能具有安全增效双重价值

再次,多项技术具备平民保护潜力:包括战场环境特征识别系统、附带损伤最小化规划工具、精准及时预警装置等。与会者强调此类效益非自动产生,其成效取决于数据质量、系统鲁棒性及确保人类主导法律伦理判断的控制措施。

最后,后勤保障、装备维护及军事训练被多次强调为适用性强且争议较小的领域。即便在此类场景中,参会代表仍要求通过严格测试及操作员训练,防范过度依赖与意外后果

风险动态与作战关切

在机遇研判同时,会议聚焦军事场景中人工智能加剧的风险:

首要关切集中在技术可靠性与鲁棒性。概率系统在数据稀疏、噪声干扰或环境失配时可能产生不可预测行为。会议讨论了系统对抗性操纵及数据投毒漏洞,以及时效敏感场景中可解释性的实践局限。数据保密性与广义网络安全风险贯穿军事人工智能研发部署全周期。上游风险同样值得关注:基于合成数据或非专用数据的训练可能导致偏见固化或性能衰退。大型人工智能模型的训练运行能耗亦引发碳排放等环境影响,要求各国制定可持续韧性规划。

其次,人机交互风险引发深度研讨。当系统界面传递不当确定性时,操作员可能因过度信任、自动化偏见及警觉性衰减而盲从系统输出。反之,低信任度会导致潜在效益丧失(如因人类偏见而拒绝准确的人工智能判断)。与会者强调需通过设计优化与专项训练实现信任校准,包括明确设置人工介入阈值。有观点指出,人工智能系统在数据处理等任务中的高效率可能诱发过度依赖,导致决策者与行动后果产生"心理疏离"。

再次,人工智能系统全生命周期存在滥用风险。包括内部威胁等"恶意行为体"的部署阶段滥用、人工智能增强型网络进攻行动,以及私营军事公司等非国家行为体在责任框架外的使用。部分代表特别警示核指挥、控制与通信(NC3)等高危场景中,误判误算可能引发灾难性后果。

决策时间压缩成为反复出现的焦点议题。尽管人工智能工具旨在加速复杂信息解析进程,但快速决策循环将压缩人类审议时间,削弱指挥官理解人工智能决策逻辑的能力。在压力与危机环境下,此现象易导致差错、局势升级或战略误判。相关讨论提及军备竞赛动态的额外风险:战略竞争认知与军事优势心理可能催生能力列装压力,导致测试验证与治理流程滞后。

法律伦理与政策锚点

与会方重申现行法律义务(包括《联合国宪章》、国际人道法及国际人权法)适用于军事人工智能系统的研发使用。核心原则包括:维持人类对武力使用的最终判断与控制权;确保全生命周期责任归属于人类行为体。多国介绍了依照《日内瓦公约第一附加议定书》第36条开展的法律审查实践,表明该机制同样适用于人工智能系统(含系统升级或转用后的持续审查),并强调军事法律顾问的关键作用。

责任归属议题获得重点阐释。警示指出:必要性、相称性及区分原则等法律判定不应编码至不透明系统中;决策支持工具应增强而非替代合法性及伦理思辨能力。随着系统升级或模型组合("人工智能训练人工智能"),归因追溯愈加复杂,需通过文件记录、审计追踪及明确操作者-开发者-指挥官责任划分加以应对。会议记录了对生死决策权授予人工智能的伦理忧虑。有专家指出真实决策依赖默会知识与直觉判断的认知复杂性,质疑现有人工智能系统能否实质性复现人类决策能力。特别重申国际人道法要求个人对战争罪行承担责任。

保障措施与评估实践

保障机制被普遍视为建立人工智能系统信任的基石,涵盖研发部署全周期的测试、评估、验证与确认(TEVV)。与会者强调基准测试数据、渗透测试及场景化试验对认知性能边界、失效模式及分布偏移下鲁棒性的价值。完整技术文档(含预期用途、操作边界与已知局限)是监督学习的重要基础。

会议明确"保障"非静态标签而是持续过程。模型更新、数据迭代或集成路径变更均可显著改变系统行为,因此必须加强变更管理与定期复评。传递不确定性、置信区间及预警提示的人机界面被纳入使用阶段保障体系。操作员训练作为关键环节,应设置对抗自动化偏见及过度依赖的专项科目,包含处置标准演练与人工介入升级程序。多项发言指出保障与训练存在协同效应,评估结果应反馈至训练课程与标准作业流程。

能力建设与合作需求

与会方从人员、流程、技术维度识别优先需求:

人员层面强调复合型人才体系必要性,涵盖操作员、指挥官、规划人员、工程师、数据专家及法律政策官员。识别认知偏见与人工智能局限的培训应覆盖全体相关人员,而非仅限于技术专家。

流程层面探讨可共享的军事人工智能法律审查机制、基准化TEVV协议及保障优先型采购模式。多国强调知识技术共享与区域同行学习对弥合能力差距、促进规范兼容的价值。此类举措有助于各国实质性参与人工智能多边讨论。合作框架应兼顾安全关切及人工智能发展水平差异,聚焦实践方法与经验传承。

技术层面提出对可访问透明评估工具的需求,以及尊重主权隐私的安全数据获取机制。通过数据集、场景库或共享方法论开展的基准测试,被视作多数国家可行的能力建设路径。

共识凝聚与后续交流路径

  • 实体层面路径

多项主题被确认为将高阶原则转化为可行实践的关键路径,共识领域包括:国际法适用性要求;维持人类武力决策责任;保障机制与全周期管理必要性;包容性能力建设价值。各方普遍认同负责任实践需主动投入而非技术现代化的自然衍生。

人工智能与核武器交叉领域被确定为高风险场景,透明措施与建立信任机制至关重要却尚存不足。建议聚焦务实渐进步骤以减少误判,同时考量敏感因素。有发言明确指出人工智能融入核决策的潜在红线。

  • 进程层面路径

多国建议通过界定范围术语奠定军事领域负责任人工智能原则实践基础。鉴于人工智能具军民两用性且风险具场景依赖性,其范围界定不应仅依据技术类型或操作主体,而需结合使用背景。后续交流可探索实践性界定标准,为讨论提供基础并识别治理缺失。

会议注意到对话形式影响成果实效:多层次利益攸关方参与有助培育透明信任,聚焦式研讨更易催生操作效益。建议各国考虑从宽泛原则转向定制框架——或以应用为焦点,或响应风险特征等务实路径——从而研判特定技术特性在特定作战场景中与现行法律义务和作战实践的互动关系。

最后鼓励与并行进程协调,避免规范冲突或重复建设,充分释放协同效应。交流可联通民用人工智能治理与致命性自主武器系统讨论,识别可迁移的兼容实践与经验,明确需差异化处理的领域。建议开展区域性或专题性后续行动以巩固共识,体现多样化操作背景,深化技术、法律与政策界的协作。

结论

系列会议既确认人工智能对军事领域的变革潜力,亦警示其多重风险。信息处理、安全增效等机遇需依托缜密保障方能实现;而决策差错、局势升级、系统脆弱性及滥用等风险,唯有通过持续投入保障机制、强化人类判断控制及国际合作方可管控。

联合国裁军事务厅明确了MAPS对话后续重点方向:深化机遇风险共识研究;探索涉及裁军、军控与防扩散机制的红线界定;构建支持国家间对话的外交工具。为此,联合国裁军事务厅正为2026年MAPS对话筹措资金。

成为VIP会员查看完整内容
1

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
微信扫码咨询专知VIP会员