过去30年间,没有什么技术能像人工智能(AI)这样同时激发企业领导、技术专家与公众的想象力与焦虑。近年来,人工智能已从幕后走向台前,成为一股变革性力量,承诺彻底改变商业实践并带来显著经济效益。当技术引领者激进的断言得到经济学家、社会评论家和政治家的支持时,就该高度重视并审慎关注。这股利用人工智能潜力的热潮已蔓延至整个国防体系:国防部门、武装部队及国防工业。过去几十年,目睹了数字技术在国防诸多领域的广泛部署,从增强卫星图像中的目标检测,到预测设备故障以优化备件管理。其结果是,在现代战争中,当前持续的军事冲突(尤其是在乌克兰)凸显了数字技术如何嵌入国防的方方面面,人工智能的影响力日益增强。事实上,乌克兰冲突甚至被描述为“人工智能战争的活体实验室”。然而,尽管有人工智能倡导者的热情,人工智能广泛应用所带来的令人不安的现实正在显现。在某些领域,围绕人工智能影响理论的最初兴奋与其实际落地现实之间,正出现日益严重的脱节。英国政府一份关于发展国防人工智能能力和专业知识的审查强调,“国防部门需要进行更广泛的文化变革,以适应这样一个世界:军事优势日益由数字能力和更便宜的平台所提供,这些平台能够被快速开发、部署和迭代”。这引发了根本性的担忧:当前人工智能应用的障碍是暂时的绊脚石,还是应该预期大规模数字化转型将再次令人失望?
国防部门与人工智能的关系既是不可避免的,也是复杂的。正如肯尼思·潘恩在其具有影响力的著作《我,战争机器》中所探讨的,人类正经历一场从以人为中心到机器驱动的决策制定的巨变。人工智能系统日益能够处理海量数据,并做出传统上属于人类战略家和指挥官领域的快速决策。该领域独特的作战环境加速了这种转变。国防组织在极端动荡、不确定、复杂和模糊(VUCA)的条件下运作——而这正是人工智能在模式识别、预测分析和快速决策方面的能力能够提供决定性优势的条件。从增强卫星图像中的目标检测,到预测设备故障以实现最优备件管理,人工智能已在多个国防应用领域中证明其价值。克里斯蒂安·布罗斯在《杀伤链》中强调了这种转变的紧迫性。依赖传统系统和流程的传统方法不仅正在过时,而且可能变得危险。面对快速演变的威胁和技术能力,未能迅速适应的组织面临被淘汰的风险——在国防领域,这种后果远远超出了商业考量。
尽管存在炒作且在特定领域(如图像识别、语言翻译和预测)取得了显著成功,但在关键作战影响领域广泛采用人工智能仍面临若干巨大障碍。在集成挑战、安全担忧和隐私问题的引领下,关于人工智能成本效益部署的疑虑正在浮现。在国防这样一个复杂领域,克服这些广泛应用的障碍至关重要。近年来,英国国防部强调了在其领域内实现人工智能效益所面临的挑战。认识到国防能力的数字化转型是这个时代最关键的战略挑战之一。英国2022年的一份政策声明,描述目标是“快速、大规模地采用和利用人工智能,将国防部转型为一个‘准备就绪’的组织,并交付尖端能力”。国防部门已认识到,挑战在于如何在一个多样化、复杂的组织环境中实现这一目标,这个世界充满不确定性,涉及一系列不断增长的威胁,且作战需求必须与并不诱人的预算选择相平衡。此外,人工智能的颠覆性本质及其在关乎生死存亡的决策中的应用后果,使得这一挑战更加艰巨。英政策声明中明确指出了这一困难:“……问题可能不在于能力‘设计用来做什么’,而在于它‘如何’去做,以及如何确保人工智能得到有效和适当的使用。”这承认了,除了作战问题外,在国防领域大规模部署人工智能还会引发关于伦理、偏见和安全的更根本性问题。这使得许多人感到陷入有限的实验和令人不快的战略选择的循环中。他们难以确定人工智能在当前作战约束下的定位,谁对广泛的人工智能部署负责,哪些政策和实践现在需要调整,以及如何向用户和利益相关者展示人工智能的有形价值。人工智能的承诺与其实际实施之间的这种差距,就是所谓的“人工智能应用悖论”。
要理解这一悖论并规划前进道路,需要认识到人工智能的应用通常分两个不同的阶段展开。
在这个初始阶段,研究人员、技术专家和数据科学家主导推进,专注于小规模的、孤立的使用案例。数据访问可能受限,健壮的基础设施服务可能尚未到位,数据质量也不总是完美,但在此阶段这是可以管理的——此时的目标是概念验证。成功以技术性能衡量,资金往往是基于项目的和递增的。最近的调查表明,全球近一半的国防组织已在此实验层面实施了人工智能解决方案,另有四分之一正在运行试点项目。这种广泛的初步应用既体现了该领域对人工智能潜力的认可,也展现了其执行技术实施的能力。
此后,当组织考虑升级到大规模、集成系统时,更广泛的财务、战略和政治关切占据主导地位。焦点从技术新颖性转向为获取竞争优势而进行的战略实施。成功标准演变为强调作战成果和投资回报率。资金变得具有战略性和持续性。最关键的是,此阶段需要跨各种功能和系统的深度集成,要求具备广泛的跨职能协作技能。波士顿咨询公司(BCG)最近的一项调查发现,航空航天和国防领域65%的人工智能工作仍仅处于概念验证阶段。只有三分之一的项目正在以可衡量的方式改善业务。要取得进展,需要一种战略方法,能够识别并解决实现人工智能规模化应用的关键障碍——而大多数组织仍未做好实施这种方法的准备。
克服“人工智能应用悖论”意味着从实验性的人工智能实施转向企业级部署。这需要在六个关键领域同时取得进展,每个领域在国防背景下都呈现出独特的挑战。
规模化人工智能需要一个健壮、可访问且高质量的数据基础。许多组织都在与数据孤岛、不一致性和隐私问题作斗争。例如,在国防领域,一份关于国防部数据战略的报告得出结论:尽管来自日益增多的传感器的数据量不断上升,但他们发现从信息中提取洞察力比以往任何时候都更加困难。
国防部门的人才需求超出了典型的人工智能团队构成。虽然数据科学家和人工智能工程师仍然至关重要,但国防应用需要额外的专业知识:理解作战背景的领域专家、能够应对保密要求的安全专业人士,以及能够处理人工智能在生死决策中道德影响的伦理学家。
一项IBM关于国防领域人工智能的调查显示,严重的技能短缺限制了人工智能在国防组织中的扩展。此外,该部门必须与商业组织争夺稀缺的人工智能人才,同时提供不同的价值主张——使命目标和国家安全的冲击力对比纯粹的商业激励。
军事文化重视关键决策中的人为判断、经验和领导力。整合可能建议甚至做出自主决策的人工智能系统,需要各级人员对其角色和责任的理解发生根本性转变。
此外,在整个企业范围内整合人工智能需要显著的文化转变。建立人工智能素养并解决组织各级的抵制和恐惧是一个关键的起点。然而,这些工作往往流于表面,旨在为管理策略正名,而未充分参与变革管理中困难的人际层面。一项安永关于人工智能在军事资产管理中作用的研究发现,这种转变需要一种多层面方法,结合教育、实际经验和支持性的创新文化。
国防人工智能系统面临的基础设施要求远远超出商业应用。必须在多样化的环境中运行——从复杂的指挥中心到连接受限的前方作战基地。需要能够在对手积极寻求干扰或利用人工智能系统的对抗性环境中发挥作用计算能力。
除此之外,人工智能在其训练、调优和应用过程中消耗大量数据。需要显著的计算能力和先进的基础设施,以便在编码复杂、深度分析的算法中处理这些数据。许多组织发现其遗留系统在人工智能需求的重压下不堪重负。现代化IT基础设施以适应这些需求始终是人工智能规模化的先决条件,但却常常被轻易忽视,而偏向其他更具吸引力的任务。在国防等领域,此类担忧与众多安全性和互操作性问题交织在一起,使问题更加复杂。
人工智能在国防领域的突出地位带来了前所未有的治理挑战。国防领导人必须制定全面的框架,不仅要解决数据管理和算法偏见问题,还要解决自主系统中的问责问题、遵守国际人道法的问题以及人工智能赋能武器系统的伦理影响。
至少,当今人工智能的突出地位已向各地的领导人和决策者发出了挑战——直面广泛数据收集、管理和使用的责任,否则将承担法律、财务和声誉上的后果。制定全面的人工智能治理战略不再是可选项——而是必不可少的。但更重要的是,治理战略中体现的原则必须成为日常思维和行动的基本组成部分。然而,要决定人工智能能否以及在哪里可以超越以人为中心的工具角色,承担自主决策的职能,则需要解决重大问题。
国防组织运营着庞大的技术栈,这些技术栈经过数十年演变以支持关键任务。虽然能力强大,但这种积累的技术债务为人工智能规模化实施创造了重大障碍。与有时可以更换整个系统的商业组织不同,国防组织必须将人工智能能力与现有平台集成,同时保持作战连续性。
在整个国防领域,大量的精力、时间和资源被用于维护日益复杂的技术栈。2022年,英国国家审计署(NAO)报告称,国防数字部门估计将在10年内花费117亿英镑更新或替换遗留系统,并升级到现代替代品。然而,各组织在未解决其软件基础设施中潜在技术问题的情况下就启动新的人工智能项目。这种积累的“技术债务”在向人工智能规模化迈进时可能造成重大障碍。在这个不稳定的基础上进行建设,会破坏人工智能规模化交付所需的健壮、有韧性和可重用框架的稳定性。
国防部门采用规模化人工智能承担着超越技术实施的独特责任。当人工智能系统在关乎人类生命和国家安全的背景下运行时,人工智能的“三个R”原则——责任、可靠性和鲁棒性——就具有了更重要的意义。
当人工智能系统影响有关威胁评估、资源分配或目标选择的决策时,偏见缓解变得至关重要。国防组织必须实施严格的测试协议,同时认识到传统的偏见检测方法可能无法捕捉到作战环境中的全部挑战。
国防领域的可靠性和鲁棒性要求超过了大多数商业应用。人工智能系统必须在对抗条件下、连接有限的情况下以及在高压力环境中(失败不是可选项)保持性能。这需要模拟全部作战场景的全面测试和验证过程。
在国防应用中,透明度和可解释性呈现出特殊的挑战。虽然利益相关者需要理解人工智能的决策过程,但作战安全要求可能限制可共享的细节层次。国防组织必须在可解释人工智能的需求与安全考量以及作战决策的快节奏性质之间取得平衡。
当我们展望人工智能的未来时,有充分理由对其带来的机遇和随之而来的责任持乐观态度。我们正处于人工智能系统的风口浪尖,这些系统可以显著增强人类能力、简化复杂操作,并从海量数据存储中解锁洞察。但在国防等领域实现这一潜力不仅仅需要技术进步。需要一种整体性方法,在常常不确定、模糊且需要平衡各种竞争性风险的环境中,解决人工智能实施的技术、组织和伦理维度。作为该领域的领导者、从业者和学者,我们有责任以负责任的方式引导这场变革。
在国防等领域,挑战可能令人望而却步。近期的审查发现,即使对人工智能的军事应用和影响的理解在不断增长,但这仍是基于一个相对薄弱的基础。讨论往往过分强调某些引人注目的问题,如致命性自主武器系统(LAWS),而忽视了其他关键领域,如战略规划和预见性设备维护。对战术问题的关注掩盖了战略考量。此外,人工智能在国防领域的短期后果往往优先于可能产生最显著影响的长期、附加效应。
因此,国防领域实现人工智能规模化的道路并非坦途,但它无疑是当前正在进行的最重要的征程之一。通过协同工作、分享知识并坚持对负责任方法的承诺,可以利用人工智能的变革力量,推动国防领域乃至更广泛社会的有意义变革。
参考来源:karve