地缘战略与技术变革要求快速适应。5月1日,美陆军部长与陆军参谋长联合发布全军公开信,明确多项提升作战能力、优化部队结构、消除冗余的举措。在增强作战杀伤力的指导方针中,陆军最高文职与军职领导人强调需转向整合人工智能至指挥控制节点的能力型资源组合,以加速决策并保持主动权。
人工智能能力的新范式既是概念亦是现实。描述跨战争层级人机混合智能的"新半人马模型"(neocentaur model)已在军事学院课堂教学与战略兵棋推演中验证。此外,持续研究提出技术解决方案——在涉及生命存亡的军事应用中,确定性人工智能能力更为适用。为保持军事优势,必须采用人机混合路径(即新半人马模型),依托确定性模型(而非纯生成式AI)降低认知退化与公式化决策风险。
当前关于生成式人工智能(AI)与批判性思维影响的研究应引起军事领导层警觉。例如,向自主系统的"认知卸载"可能剥夺参谋军官"日常锻炼判断力与强化认知肌肉的机会,导致能力退化与战备不足"。微软资助的319名"知识工作者"调研表明,生成式AI解决方案推动批判性思维发生三大转变:"从信息收集转向信息验证"、"从问题解决转向AI响应整合"、"从任务执行转向任务监管"。以生成式AI行动方案开发工具为例,虽能减轻参谋认知负荷并释放人力,但可能产生意外后果。公允而言,编辑生成式AI工具提供的70%完成度方案仍需一定创造力,但人类心理固有的自动化偏误将倾向于接受机器方案(尤其在作战压力下)。大卫·休谟关于人类"未经审慎思考即赋予现状不应得优越性"的假设强化此认知——本为增强人类智能的工具,反开始主导人类认知。这种自动化偏误(或称"弥诺陶洛斯关系"倾向,即"弥诺陶洛斯漂移")是生成式AI的持续威胁,须在战略层面识别规避,仅在战役战术层面经审慎授权使用。
生成式AI对创造过程的影响固然值得关注,但最大风险在于:若在战争认知维度无节制接受生成式自主,将危及人类认知固有优势(实为有效指挥精髓)。卡梅隆·亨特与布莱登·鲍恩在《战略研究期刊》撰文正确指出:"指挥决策……需多种逻辑推理能力,及判断何时运用何种逻辑的卓越判断力。指挥决策核心在于判断力——此乃AI技术无法企及。"在无正确答案、无回溯分析模式、无先验参考新兴实践的复杂环境(常为战场熔炉中军事指挥官的领域),生成式AI无能为力。生成式AI模型基于既有知识库训练,依赖算法设计,在未知场景中将抑制创新建议。此类系统仅具备归纳逻辑能力("基于先验观察预测决策"),而指挥决策需溯因逻辑("面对未知与不可知决策")——生成式AI无法具备此能力。指挥官所需的智慧兼具智力与性情特质,唯人类独有。
最新研究凸显上述隐忧。例如"巴里有限新颖性定理"证明生成式AI具有不可靠性、不一致性及欺骗性拟人化特征。模型输出非答案,而为概率化模式响应。若实施不当,AI模型将压制创新性并削弱主动性。研究结论支持在战略层级采用AI混合应用,战役战术层级审慎使用。正致力于将现有模型输出从概率化转向确定性,通过生成系统构建符号AI的拟像。此进展在兵棋推演应用中具有突破意义,经陆军精锐推演专家严格测试验证有效性。然成功之余,须投资开发真实混合系统(整合符号与生成式AI,类似钢铁侠"贾维斯"),在涉人命关天场景中训练"半人马"型人机协同体。
面对生成式AI的潜在危害,军方应如何应对?因噎废食绝非良策。各级领导必须充分认知风险,在指挥链内审慎实施相关工具——尤其伴随下一代指挥控制系统的出现。AI并非单一工具,将其视为武器系统时,军事领导者对此结论应不觉意外。正如特定武器适配特定任务(且非人人精通所有武器:携行M240B机枪一周绝非易事),AI作为武器系统亦需任务适配与操作员训练。以下概念有助于阐释人机关系的正确范式。
保罗·沙雷推广的"半人马模型"强调人机二元关系中的人类主导权,而"米诺陶洛斯关系"则以机器控制人类活动为特征。值得注意的是,当前AI发展更擅长执行与作战相关的认知任务,而非"执行与作战相关的人体机能"。换言之,机器人技术进展滞后于认知工具。杰克·沃特林强化此观点,指出复杂多变地形中的徒步机动(战场步兵班常规需求)能力,在可预见未来仍难被自主系统匹敌。然而,生成式AI在创造性功能方面已显现超越人类迹象。目前,高层级司令部正采用生成式方案卸载战争认知域的"知识工作"。
"新半人马"模型(战略、战役与战术层级的半人马体系)将保罗·沙雷的理论扩展至跨战争层级的认知维度。AI系统应如何在战争认知维度与人类实现跨层级的整合?其关系范式或与直觉相悖。
战略半人马的需求、逻辑与效用已有论述。詹姆斯·约翰逊在《AI指挥官》中强调战争战略层级人机混合关系的重要性("人机混合"关系指人类与混合AI系统——符号式与生成式的结合)。他正确指出,人类溯因推理与内省("元认知")能对不可预见情境作出创新性回应,主张"算法设计者无法完全消除不可预见偏见或预置AI应对先验场景",需与现代混合AI缔结半人马式契约(即新半人马)以充分释放人机协同优势。
美国陆军战争学院的安德鲁·希尔与斯蒂芬·杰拉斯则认为,人类直觉可能成为充分释放机器效能以优化美国力量部署的制约因素。此论断在战役层级及以下或成立,但克劳塞维茨式战略家所需的"洞见力"必然包含原始暴力、敌意与仇恨要素。战略半人马(人机混合团队)对指导军事力量达成政治目标至关重要——尤其在作战节奏超加速的现代战场。
战役层级是AI实施面临最大挑战与风险的领域。该层级毗邻战场前沿,却需对应急规划的创造性需求保持响应。兼具战术响应能力与创新思维要求的双重责任,对参谋团队构成认知负担,需审慎调试以避免自动化偏误诱发认知卸载。
近期与某陆军师作战军官的对话中,其坦言危机冲突期间有限人力与经验常使"修改方案比原创更易操作"。此困境引发广泛共鸣。在军、师及以下层级,现代战场可用工具集、网络能力与战术对抗压力将使司令部作战管理不堪重负。若司令部配备生成式AI工具执行任务分析至行动方案开发流程,理论上可释放参谋资源以支援接触部队,并为上级司令部提供及时反馈。
这正是司令部部署AI工具时需注重细节与领导力的关键所在。军师级确定性AI或混合解决方案应优先优化战争科学计算以支撑战役艺术。例如:测算步兵旅战斗队从卸载机场经复杂地形抵目标区并建立战斗阵地(含弹药燃油补给估算),传统需优秀规划员耗时数小时;而混合AI可在数秒内给出答案——但概率化方案无法完全信任用于精确迭代分析。
并非所有混合应用对各作战职能均具同等效能。以以色列AI系统"薰衣草"(Lavender)为例,其在加沙冲突期间近乎无限生成打击目标清单。人类愤怒与机器处理的结合,客观上释放了远超无AI标定条件下的暴力强度。本应受严格人工监管的系统,却演变为决策卸载机制,此即AI系统与人机行为结合的危险性。在作战压力下,人类为求效能牺牲监管职责,最终可能导致远超预期的灾难性后果——此即"弥诺陶洛斯漂移"本质:以效率之名向本应受监管的机器让渡过度权限。此动态最大风险存在于战役层级——特别是竞争危机中的师级司令部与大规模作战中的军级司令部。
军师级指挥官可考虑对相关参谋部门(如火力规划与情报部门)实施确定性生成式AI隔离区。确定性生成式AI系统可优化24至48小时规划周期内的目标地形分析与基础行动方案开发,但需审慎参数化与集成。需更多实验探索如何最佳实施与核验该层级混合关系产出。鉴于纯生成式AI行动方案工具可能抑制向指挥官及上级的创新建议,后勤与规划团队应避免使用此类工具,转而配备类似2024年8月陆军战争学院演示的确定性或混合认知增强设备(针对知识型参谋人员)。
战术层级(通常被视为AI自主系统最普及且使用限制最少的领域)或许是动态运用此类工具最具挑战的战争层级。澳大利亚自动化决策与社会卓越研究中心学者罗伯特·斯帕罗与亚当·汉施克指出,机器人感知、运动与操控领域仍存在持续性难题。计算机科学家高德纳(Donald Knuth)精准观察到:"AI迄今已成功完成所有需要‘思考’的任务,但在人类与动物‘无需思考’完成的大部分事情上仍显不足"——后者反而更为困难。杰克·沃特林在《高级陆战》中写道:"步兵分队的机动高度复杂、依赖情境且基于团队协作,可预见未来自主系统难以企及。"
除空中弹药(巡飞弹与无人机群)外,复杂地形中的地面自主机动障碍常使其无法满足战术作战需求。然而,对致命性地面部队而言,AI在战术层级认知战(非物理战)的支持已成近期刚需。AI赋能战争的矛盾性在于:战术行动对战略的影响权重日益提升。战场混沌边缘的小型单位既是传感器亦是执行体,其开辟的新路径需被大体系快速理解并广泛同步。在此范式下,小单位领导者将升格为战略领导者。全球顶尖军队必须拥有最佳小单位领导者,并与最强AI赋能网络紧密链接。
作为认知维度跨战争层级人机混合关系的范式,"新半人马"模型需在演习与兵棋推演中开发定制化技术方案并进行实验验证。本分析得出两大核心结论:
首先,领导者须防范组织内部的"弥诺陶洛斯漂移"。减轻认知负荷与提升人力效率的诉求虽属自然,但在危机升级与战斗烈度加剧时,以效率与作战必要性之名将道德责任外包给自主系统的危险倾向,将加剧战争残暴程度并引发规划与行动方案开发的意外后果。
其次,领导者须认知自动化偏误趋势,构建混合型组织或人机混合团队体系以规避AI过度依赖风险。生成式AI解决方案必须由具备算法素养的领导者审慎实施,并在组织层面将AI视为武器系统。他们需明晰何种增强模式适配特定层级、部门与环境——适用于G5或J5作战参谋的方案未必适合G33或当前作战部门,适配情报领域的方案或与火力部门不兼容。
当下战争仍属人类事业。通过维持高标准征兵与定向职业军事教育建设高素质部队,是"新半人马"模型的重心所在。在AI热潮汹涌的时代,陆军不可偏离其关键非对称优势的投资方向:士兵的卓越素质。
参考来源:mwi