在军事领域狂热采用新兴人工智能(AI)工具之际,公众却鲜少讨论其潜在风险。尽管美军投入巨资研发军用生成式AI(GenAI)工具,但陆军及联合部队至今仍未获得可靠能力。当前正形成尴尬的AI军备竞赛态势——技术专长主要集中于私营领域,但商用的"军民两用"开发模式无法满足军事需求。陆军亟需以专业买家身份明确需求并主导AI话语权。2025年5月美国陆军北方司令部(USARNORTH)兵棋推演证明,GenAI具备支持军事规划的潜力,但仍需采取区别于商业研发的独特路径。军用GenAI的实际应用需实现三重突破:严苛的专项训练;转向强化而非替代人类决策的"行动方案主导"模式;通过混合AI模型等技术创新克服算力局限、地理空间理解及记忆存储缺陷。

GenAI创新生态正在变革。陆军数字与人工智能办公室与"全球信息主导实验"项目协同推进GenAI平台开发,既激励私营领域创新,又通过严格评估筛选军用系统。2025年5月,陆军战争学院联合上述机构,在战略领导力中心开展首次战区级机密兵推,测试Scale AI研发的"多纳万"GenAI系统。为期五天的推演集结了北方司令部、陆军北方司令部、海关与边境保护局、联邦调查局、网络安全与基础设施安全局及国土安全部逾70名专家。此次实验验证了维系陆军认知优势所需的产业合作模式。

历时十个月筹备的推演在机密级互联网协议路由器网络集成Scale AI的Llama-3.3-70B-Instruct架构"多纳万"模型。陆军战争学院的核心命题直指要害:GenAI系统能否增强参谋团队作战态势理解力,优化其向战区指挥官提交的战役计划建议?这在传感器密集部署的战场空间尤具现实意义。作战节奏持续加速正压缩战略-战役-战术层级的决策空间,致使战略决策往往蕴含战术意义,反之亦然。虽然利用GenAI驱动人类认知超速运行颇具诱惑,但其可行性及加速认知可能引发的未知风险亟待验证——此次推演正是为破解这些命题开辟通路。

GenAI在兵推中可扮演四重角色:(1)智囊顾问(认知支持);(2)想定设计(情境构建);(3)裁决系统(主客观判定);(4)推演架构(流程搭建)。本次推演聚焦首项功能,研究如何运用GenAI增强战略层级的人类智能。推演过程中虽发现测试其他功能的机遇,研究团队仍克制地集中稀缺资源(仅有两套"多纳万"授权)保障核心议程。部分情境显示,想定开发测试机会反能强化顾问职能(虽未专门验证,但GenAI在叙事构建与情境设计方面展现出卓越潜力,需深化研究以优化实践)。

要全面检验GenAI在军级以上梯队的认知增强效能,理想方案应在相同想定下分设"配置AI"与"未配置AI"的参谋单元进行效果对比。但此次推演未能实施纯粹A/B测试——战略概念与条令司研究团队在推演前六周才获得"多纳万"授权。未来需在初始规划阶段即嵌入AI集成方案。

时间约束反而增强了推演真实性。真实的战区陆军司令部终日应对战役行动,若GenAI无法无缝适配人类决策机制必将遭淘汰。因此本次推演中,演习控制组(EXCON)通过嵌入"蓝军"(推演方)战役计划组(OPT)来模拟USARNORTH参谋机构运作。当计划组规划行动、评估方案、拟订参谋预判时,EXCON研究员同步向"多纳万"系统提交同类想定问题。EXCON研究员除作为编外参谋外并无预设议程,但其配备的快速分析机制可深度解析战场态势、军事条令及现有作战文件,从而为计划组提供增强型态势认知支持。在规范管理前提下,"多纳万"的响应本可激发深度研讨或提升团队整体态势感知水平。

成为VIP会员查看完整内容
7

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《美陆军防空反导能力现代化》最新61页报告
专知会员服务
21+阅读 · 6月18日
《国防自主系统互操作性保障经验》最新报告
专知会员服务
18+阅读 · 5月10日
《空战战术多智能体强化学习中的可解释性》最新报告
专知会员服务
75+阅读 · 2024年10月25日
《实现战术融合愿景:整合 5G 技术的案例研究》最新79页
专知会员服务
32+阅读 · 2024年10月25日
推荐!《军事自主系统:未来之路》美空军420页
专知会员服务
77+阅读 · 2024年10月22日
《国防大型语言模型:挑战与机遇》最新70页报告
专知会员服务
82+阅读 · 2024年8月23日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
48+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
475+阅读 · 2023年3月31日
Arxiv
24+阅读 · 2023年3月17日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
VIP会员
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
48+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员