人工智能的出现将如何塑造地缘政治竞争的逻辑,尤其是在大国之间?各国已经开始将复杂的人工智能系统纳入其军事态势、外交工具包和决策过程。在哈佛大学肯尼迪学院,一个由阿纳托利·列夫辛组织、隶属于贝尔弗中心"新兴技术、科学进步与全球政策"项目的研究小组,致力于通过探究人工智能在军事化讨价还价和危机外交中的替代性用途,来理解这些变革。本白皮书报告了他们的发现和政策建议。

将人工智能整合到国防和国家安全领域正成为全球优先事项。就本报告而言,将人工智能定义为能够执行通常需要人类智能(如感知、学习、推理和决策)的任务,并能在动态环境中以不同程度的自主性运行的数字或物理系统。据估计,全球人工智能军事支出在2022年至2023年间翻了一番。军队正在利用人工智能以实现更高的作战效率和准确性,从而获得对抗对手的战略优势。然而,这些努力并非新事物。在1966年至1972年间,斯坦福研究所开发了"摇摇晃晃"机器人,它使用计算机视觉和语言处理来感知和理解周围环境,并做出决策和执行任务。20世纪80年代末,美国开发了"动态分析与重计划工具"——一款旨在优化人员与物资运输的人工智能软件。与此同时,自主机器人和无人机等无人武器系统也处于研发中。

然而,在2017年之前,人工智能远非战略军事优先事项。2017年4月,美国国防部设立了"算法战跨职能小组",以加速国防部对大数据和机器学习的整合。几个月后,俄罗斯总统预言,人工智能领域的领导地位将成为未来全球主导权的关键。或许最具意义的发展并非来自政治层面。2017年6月,谷歌发布了一篇题为"注意力就是一切"的开创性论文,介绍了Transformer架构,这是一种彻底改变了人工智能产业的深度学习架构。它使得创建称为基础模型的通用语言模型成为可能。与为单一、特定任务设计和训练的传统人工智能模型不同,基础模型被构建为通用型。这意味着它们能对训练数据中的模式、结构和关系有广泛的理解。基础模型最突出的例子包括Anthropic公司的Claude、谷歌的Gemini和OpenAI的ChatGPT。基础模型可以针对各种用例进行定制,包括军事应用。

这一发展产生了三个广泛的影响。首先,快速准确地处理海量数据的能力开启了一个充满新颖军事应用的世界。在"注意力就是一切"论文发表不到十年后,以色列的"薰衣草"和"福音"系统或Palantir公司的"MetaConstellation"平台等人工智能驱动的解决方案已在实战冲突中部署,用于精确目标锁定。人工智能的其他用例还包括兵棋推演与可信战略生成、装备维护需求预测以及后勤规划。其次,基础模型降低了经济规模较小国家将人工智能整合到军事领域的门槛。打造可用的人工智能模型需要大量人力资本、研究计算资源和高质量数据。这种高昂的初期成本,加上先进模型训练所需尖端硬件的出口管制,使得较小国家难以构建自己的人工智能模型。虽然谷歌、Meta和OpenAI等领先的私营公司最初禁止将其模型用于军事目的,但这项限制后来已被解除。这为较小国家授权使用专有模型用于军事应用创造了机会。

第三,复杂人工智能系统日益融入各国军队,使得科技公司在决策高层获得了席位。私营部门在整个人工智能产业链上相较于公共部门具有显著优势。从设计和生产加速深度神经网络训练的关键硬件——图形处理器,到组装和训练前沿人工智能模型,Alphabet、Anthropic、Meta、微软、英伟达和OpenAI等几家大型公司主导着人工智能产业。世界各国政府越来越依赖私营部门的基础设施和专业知识来实现军队现代化。Meta、OpenAI和Palantir公司的高管被任命进入新成立的美国陆军"201支队执行创新团",这表明了私营部门在美国国防和国家安全领域日益增长的地位。因此,国家安全越来越依赖于这些强大科技公司的创新能力、伦理标准和商业决策,这给国家带来了新的制度依赖和治理挑战。

有理由推测,人工智能将在战争中带来一系列切实益处。深度学习的进步有望提高目标锁定精度、增强态势感知并加速决策。它们有可能降低目标误判的发生率,并减少对平民造成意外伤害的可能性。有几个人工智能应用是专门为减轻附带损害而设计的。这些系统利用传感器集群、行为分析和生活模式评估来探测流动的平民,并识别指定视觉符号。此类自动化警告系统可以在检测到风险因素时暂停交战。

然而,人工智能的军事应用仍然充满伦理和法律挑战。围绕自主武器系统和基于人工智能的决策支持系统的法律护栏仍在制定中,并且必须建立在完善的法律伦理框架、政策、公约和传统之上。这留下了监管真空,加剧了违反战争法核心原则(如战斗人员责任、武力相称性原则和非战斗人员豁免权)的风险。此外,过度依赖人工智能辅助决策会招致意外军事交火的风险,从而导致不可预测的冲突升级;这反过来又限制了通过有意义和及时的外交解决螺旋式升级危机的空间。最后,通过分发复杂的开源模型实现的人工智能民主化,使得非国家行为体获得了更强的破坏能力。

鉴于人工智能不可避免地融入军事领域,建立强有力的监管和伦理保障措施对于减轻其负面影响至关重要。本报告将探讨人工智能多样化的军事应用,评估当前的监管格局,审视其中的法律和伦理困境,并提出确保其负责任实施的策略。

提纲

人工智能的军事应用
监管格局
美国法规
碎片化治理
战略风险与监管挑战
关于负责任军事人工智能的建议
I. 优先考虑“合规性内嵌”与伦理工程
II. 制定充分的测试与认证标准
III.确保透明度与可解释性
IV. 强化问责制的法律与政策框架

成为VIP会员查看完整内容
4

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《数字目标定位:人工智能、数据和军事情报》
专知会员服务
40+阅读 · 2024年11月24日
《人工智能与未来战争》25页报告
专知会员服务
57+阅读 · 2024年8月27日
《算法战:将人工智能应用于战争》84页报告
专知会员服务
142+阅读 · 2024年2月3日
《人工智能网络攻击带来的安全威胁》30页报告
专知会员服务
78+阅读 · 2023年5月4日
人工智能和军备控制,80页pdf
专知
13+阅读 · 2022年11月2日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
179+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员