摘要

这项工作的目的是深入了解人工智能 (AI) 工具以及如何将它们应用于空中目标威胁评估。人工智能工具是包含人工智能元素的软件产品。关于人工智能有多种不同的思想流派,并且可以在同一个工具中使用不同的方法。许多现代人工智能方法都涉及机器学习 (ML)。本参考文档将涵盖不同类型的 AI 和 ML 以及如何将它们应用于威胁评估。这项工作将介绍所有 ML 模型共有的元素,例如数据收集、数据准备和数据清理。该报告还将讨论选择适合不同问题的最佳人工智能类型

此外,这项工作将描述处理缺失数据或数据不确定性的方法。将提出实用的解决方案,包括通过数据插补填充缺失数据或修改人工智能工具的架构

最后,该报告将检查人工智能工具的输出与现有基础设施的集成。将结合威胁评估过程及其可以改进的元素来描述 AI 工具。还将讨论 AI 工具系统的通用架构

国防与安全的意义

威胁评估对于维护国家安全利益和维护各国主权具有重要意义。空中威胁评估对于一个有大片国土需要保护的国家(例如加拿大)很有价值。人工智能和机器学习都可以应用于威胁评估的研究领域。通过学习构建人工智能驱动的工具,加拿大的国防和安全将通过获得持续的前沿研究得到改善。无论哪个国家开发出最有效和最可靠的威胁评估工具,在决策和威胁反应方面都将获得优势。通过利用前面提到的快速扩张的领域,加拿大可以获得决定性的优势

1 简介

评估所有领域(如空中、网络、陆地、海洋、太空)的威胁是维护任何国家安全的一个重要方面。威胁分析包括查看敌人过去、现在和预期的行动,以及这些行动对友军资产或单位的影响。威胁评估还考虑了为减少、避免或消除风险而可能采取的任何防御措施[1]。在防空的背景下,空中目标威胁评估的任务需要识别、确定空中目标和优先排序,并管理任何必要的资源以应对威胁[2,3]。

当前的空中目标威胁评估任务由操作室中的一组高技能和经验丰富的人员执行[3,4]。该任务涉及考虑先验信息(例如,情报报告和评估标准)和获取的信息(例如,从传感器系统动态收集的运动学信息),以确定目标对某个感兴趣点/区域(POI/AOI)。此信息(运动学和非运动学)称为提示。这些信息的心理整合需要相当水平的战术专业知识,包括有关威胁类型、军事条令和基于经验的评估启发式的知识[4]。人工智能(AI)将允许根据防空作战员(ADO)可用的线索以及他们的威胁评估决策[5]或专业知识来创建工具。

本报告全面概述了AI工具及其构建。这些方法是尖端的并且非常有效。本报告将清晰地展示人工智能工具的开发方式。它将展示哪些组件是必要的,如何获取数据并使其对机器学习(ML)模型有用,以及AI工具如何与更广泛的威胁评估环境进行交互

2 人工智能

本节将介绍人工智能的概念和许多现代人工智能算法。它将包含有关AI和ML主要主题的背景知识。它还将描述AI工具中经常出现的组件。

2.1 概述

从一个非常广泛的角度来看,人工智能是人工系统“执行与智能生物相关的任务”的能力[6]。然而,这是一个非常宽泛的术语,涵盖了许多系统。例如,它不区分人工智能系统、智能系统和自动化系统。关于什么构成人工智能,文献和文化中有许多定义。本报告中使用的“人工智能系统”的定义是文献和文化中各种来源的观点的结合。

人工智能系统是一种具有以下能力的人工系统:

1.执行“有趣的”[7]任务,这些任务“通常与智能生物相关”[6]

2.“自学成才”[7,8]

早期的AI开发人员研究的问题在智力上对我们来说很困难,但对计算机来说却相对简单。这些问题可以用一组形式和数学规则来描述[9]。例如,国际象棋游戏由一组有限且严格的规则定义,这些规则可以编程到人工智能中。然而,人工智能很难处理使用人类直觉而不是使用一组正式的规则来处理的任务,例如图像识别。人工智能的一种方法是基于知识的方法,它涉及尝试设计形式语言和手工制作的逻辑推理规则,以使机器能够推理和解决问题。另一种方法是让计算机从经验中收集知识,而不是让人类对程序的行为进行硬编码。

机器学习是通过从数据中发现模式来获取知识的能力。因此,这些数据的表示会显著影响机器学习算法的性能。换句话说,提供给机器的信息(即特征)会影响它解决问题的能力。然而,手工设计的特征受到人类知识的限制。让机器发现哪种表示最好称为表示学习。学习到的表示通常比手工设计的表现要好得多。本报告在2.3小节中探讨了人工智能的机器学习方法。

2.2 AI 工具的组成部分

AI 工具的最终目标是通过减少操作员的认知和体力工作量来改善操作员的决策过程。为此,人工智能工具通过提供协作环境来补充操作员的角色。人工智能工具处理可用信息,从数据中获得洞察力,并以有利于操作员体验的方式呈现信息和洞察力。图1显示了AI工具流程的概览。该模型基于[3]中提出的决策支持系统(DSS)架构。

1.操作员是与工具交互和监控工具、根据工具输出做出决策并根据这些决策向相关个人报告的人。输入工具的信息可以是静态的或动态的。静态信息(例如配置文件和静态操作员首选项)在操作期间不会更改。动态信息,例如数据输入和设备操作,在整个操作过程中不一定保持不变[3]。将操作员与咨询能力联系起来的箭头强调了该工具的协作方面。

2.咨询能力负责管理操作员和系统之间的交互。这包括管理操作员输入(即静态和动态信息),管理环境输入(例如,约束和环境信息),促进操作员交互(例如,人机交互,人机界面)和显示信息。要显示的关键信息包括算法的结果和当前的操作限制。

3.领域知识由用于评估的规则和关系组成。例如,领域知识可能包括操作员对信息变化影响的意见。

4.算法组负责处理数据和执行评估或预测任务。可以考虑许多不同的算法和功能来实现算法组。该组将提供应用程序中的大部分AI功能,并且可以选择或组合不同的AI或ML应用程序。

5.环境为人工智能工具提供操作约束。更具体地说,环境由检测和测量目标的传感器系统以及来自更高级别个人的任务概览和命令组成。

虽然[3]对图1中的大多数组件进行了详细解释,重点是咨询能力部分,但本报告侧重于架构的算法部分。

图1:操作员、环境和人工智能工具的交互

上面介绍的AI工具被认为是基于第 2.1 节中介绍的定义的AI系统。评估的复杂性和重要性使其成为一项不容易解决的任务。人工智能工具的学习和适应方面可以通过机器学习方法来完成,这将在2.3小节中进行描述。

2.3 AI 中的机器学习

本节将讨论机器学习和人工智能的结合。有许多不同类型的AI算法,ML是这些算法的一个子集。本节将描述使用ML从数据中学习的算法类型,以及这对AI工具有何用处。作者还在他们之前的工作中定义了机器学习中的许多基本概念[5]。

2.3.1 概述

根据柯林斯词典,机器是“使用电力或发动机来完成特定工作的设备”[10]。在机器学习的背景下,机器就是计算机。更具体地说,是计算机中的程序完成了这项工作。正如[11]中所定义的那样,“如果计算机程序在T中的任务(由P衡量)上的性能随着经验E提高,则可以说计算机程序从经验E中学习某类任务T和性能度量P。”这个定义提出了机器学习问题的三个主要组成部分:任务T、性能度量P和经验E。

1.任务是要解决的问题。例如,分类任务涉及确定某个输入属于哪个类别(例如,对象分类)。其他任务示例是回归(例如,成本预测)、异常检测(例如,欺诈检测)和去噪(例如,信号处理)。

2.性能度量是用于评估ML算法性能的指标。例如,准确度是一种可用于分类任务的性能度量。准确率是模型正确分类的示例的分数。“示例”被定义为特征的集合,通常表示为向量,其中n为特征个数,每个元素为一个特征[9]。数据集是一组例子的集合。

3.经验是指模型在学习过程中所接受的训练类型。在无监督学习中,模型所体验的数据集仅包含特征,并且由模型来学习数据的特征。例如,学习描述数据的概率分布可能很有用。聚类也可以使用无监督学习算法来执行。在监督学习中,模型体验的数据集不仅包含特征,还包含与每个示例相关联的标签。无监督学习模型观察几个例子,而监督学习模型观察几个例子及其标签。但是,在某些情况下,有监督和无监督之间没有明确的区别。例如,半监督学习涉及从包含标记和未标记数据的数据集中学习。在强化学习中,模型不是从固定的数据集中体验,而是模型与环境交互并从交互中学习。

为了了解模型在处理现实世界中的新数据时的表现如何,通常会分离出一部分数据集,以便仅在完成所有训练后才能使用。这被称为测试集,由于模型之前没有看到测试集中的数据,因此测试集上的性能可以作为模型真实性能的指标。文献提供了机器学习算法和模型的许多不同分类(例如,[12]提出了机器学习的五种范式:连接主义(例如,神经网络、象征主义、进化论、贝叶斯和类比)。本报告并不是对机器学习中在空中目标威胁评估领域有用的不同方法的详尽回顾。本报告重点关注三类特定的方法:监督机器学习、无监督机器学习和强化学习。

2.3.2 监督学习

在监督机器学习中,可以使用一组标记的训练示例(即训练集)。该模型的目标是能够为示例分配正确的标签,其中正确的标签是与特定示例对应的标签。通过基于一组标记的训练数据最小化某个损失函数来调整模型。具体来说,迭代调整模型的参数,以减少训练误差。

1.模型:模型是根据样本特征输出标签的算法。

2.参数:模型的参数根据选择的模型而有所不同。例如,在神经网络中,参数包括神经元的权重和偏差。

3.误差:也称为损失,误差用于衡量模型的执行情况。可以针对特定应用设计和修改损失函数。

4.迭代调整:在训练过程中,采用一定的方案来改变每次迭代的参数。具体来说,迭代调整模型的参数,以减少训练误差。一个例子是普通梯度下降法[13]:

其中θ是模型的参数,α是学习率(决定每次迭代调整多少参数的超参数),J(θ) 是模型在整个训练集上的损失函数, 是相对于θ的梯度。可以使用各种修改来改进普通梯度下降算法,例如动量[13]。这种改进产生的算法包括Adagrad[14]和Adam[15]。

2.3.3 无监督学习

由于机器学习,许多研究和应用领域都取得了许多成功。图像理解(例如,检测[16]、分类[17])和自动化物理系统(例如,自动驾驶汽车[18])只是成功的两个例子。这些成功的很大一部分归功于监督学习和强化学习的使用。然而,这两种范式都仅限于人类输入和经验:监督学习的训练信号是目标标签,而在强化学习中,信号是期望行为的奖励[19]。使用人类设计的标签和奖励的一个弱点是由于训练信号的稀疏性而导致的信息丢失。例如,尽管用于训练监督学习和强化学习模型的数据通常具有丰富的特征(例如,图像),但目标和奖励通常非常稀疏(例如,表示图片标签的单个向量)[19]。无监督学习的动机是更好地利用可用数据来更好地理解数据。因此,无监督学习范式“旨在通过奖励智能体(即计算机程序)来创建自主智能,以学习他们在不考虑特定任务的情况下观察到的数据。换句话说,智能体“为了学习而学习”[19]。无监督学习算法的强大之处在于它能够发现标签无法完全表达的数据的潜在模式和结构。

2.3.4 强化学习

强化学习(RL)的思想是学习采取什么行动来获得最大的回报。这种范式背后的一个共同动机是智能体与环境之间的交互(图2)。根据对环境的观察,智能体执行影响环境的动作。作为响应,会生成新的观察结果,并且智能体会收到奖励或惩罚。

图 2:智能体-环境交互

RL的两个重要区别特征是试错搜索和延迟奖励。与程序员指定输出应该是什么的监督学习不同,RL智能体必须进行实验以发现导致最高奖励的动作。此外,行动可能会产生长期影响。因此,较早采取的行动可能会导致稍后的奖励或惩罚。

在监督学习中,该模型尝试从训练示例中学习以泛化并在新示例上表现良好。虽然功能强大,但在处理涉及交互的问题时,监督学习是不够的。例如,在未知环境中学习时,获得包含代表智能体在所有可能情况下应采取的行动方式的示例的训练集可能是不切实际的。在这些情况下,智能体必须使用自己的经验和与环境的交互来学习。

RL系统[20]有四个主要组成部分:

1.策略:策略根据智能体的感知状态定义智能体的行为。换句话说,它决定了当智能体处于当前状态时要采取什么行动(或行动的什么分布)。

2.奖励信号:奖励信号表明智能体在某个时刻的表现如何。奖励的概念是RL问题的核心概念,因为从长远来看最大化奖励数量是智能体的最终目标。奖励的类型是特定于问题的。例如,在训练RL智能体玩游戏时,它可能会因获胜而获得正奖励,而因失败而获得负奖励。结果,通过监控奖励信号来学习策略。例如,如果当前策略给出的某个动作导致了惩罚,那么该策略可能会以某种方式改变,以便在情况再次出现时避免该动作。

3.价值函数:价值函数表示如果遵循当前策略,智能体在未来的预期表现如何。虽然奖励被视为即时指标,但价值函数是长期指标。例如,在当前状态下投资获得负回报可能会导致总回报为正。价值函数引入了延迟奖励的方面:某个状态的价值是预期在长期内获得的总折扣奖励,其中每个收到的奖励都根据最近收到的时间进行折扣。

4.环境模型:环境模型存在于基于模型的RL问题中。它指示环境如何根据智能体在特定状态下的行为做出反应。然而,环境模型并不总是可用的。无模型方法解决了这一挑战。

正式表示完全可观察的环境(即智能体的观察完全描述当前环境状态的环境)以进行强化学习的流行方法之一是使用马尔可夫决策过程(MDPs)。马尔可夫过程是服从马尔可夫性质的一系列随机状态S:在给定当前状态的情况下,未来状态独立于过去状态。

其中是第时间步的状态,t是当前时间步,发生的概率。MDPs是马尔可夫过程的扩展:除了表征马尔可夫过程的状态集S和状态转换集P之外,还有可能的动作集A和奖励集R。

3 空中威胁评估——人工智能工具

本节将把空中威胁评估的任务与人工智能工具的能力联系起来。 AI 能力将映射到威胁评估的每个阶段,并将展示如何将其集成到现有能力中或改进现有能力

3.1 AI 工具在威胁评估中的优势

如第 1 节所述,ADOs等操作人员面临认知和身体挑战,这些挑战不利于其做出可靠决策的能力。人工智能工具将通过提供以下两个主要好处来应对这些挑战:

1.减少认知和身体负荷量:人工智能工具为操作员提供的支持和显示将缓解导致操作员总压力的众多因素。这种好处是通过使用决策支持系统(DSS)的设计原则来提供的。

2.利用最先进的方法:人工智能的机器学习方法是一个非常受欢迎的研究领域,因此在方法的开发和改进方面做了大量工作。通过使用AI支持空中目标决策,该系统可以使用和利用最先进的方法。

3.2 威胁评估中的 AI 工具组件

如2.2小节所述,通用AI工具中有多个组件可以专门用于评估。威胁评估AI工具中的组件及其专业化如下:

1.操作员(Operator)是评估过程中的ADO。操作员将负责确保提供给AI工具的信息尽可能准确。然后,ADO将与该工具交互,以充分了解威胁情况,并获得AI生成的威胁评估。

2.咨询能力(Advisory Capability)负责与ADO以及各种传感器和数据库系统进行交互。这将涉及从雷达和其他传感器收集数据,以及解释从情报报告中获得的数据。咨询能力还负责确保ADO可以有效地与计算机界面一起工作。更新界面可能涉及一个可以结合机器学习的动态过程。

3.领域知识(Domain Knowledge)将包括ADO的经验以及他们用来进行准确评估的任何规则。在空中威胁评估中,这可能包括常见的高度、异常的飞行模式或敌军作战节奏的变化。

4.算法组(Algorithms)负责目标数据的处理和威胁评估。这将包括处理轨迹数据以获得提示数据,并使用提示数据和领域知识来评估目标的威胁。可能的评估算法包括基于规则的方法[3、4]、贝叶斯方法[3]和本报告[5]中提供的AI技术。

5.环境(Environment)为人工智能工具提供操作限制和目标数据。更具体地说,环境包括检测和测量目标的传感器系统以及来自更高军事指挥链的任务概览和命令。

3.3 机器学习在威胁评估中的应用

由于机器学习方法的种类和成功率众多且不断增加,机器学习在威胁评估中的应用数量仅限于研究人员的知识和经验。本报告将概述如何将三种主要机器学习范式应用于人工智能工具进行威胁评估的示例

3.3.1 监督学习

通过一组标记的过去目标示例,其中每个示例包含有关历史目标及其相应威胁值标签的信息,监督机器学习可用于将威胁值分配给目标。在[21]中,监督学习被用于构建多标准决策(MCDM)方法(EMCDM)的集成,以根据当时的线索值推断目标在某个时间点的威胁值。EMCDM技术由各种MCDM方法组成,它们的输出组合成一个单一的威胁值。MCDM方法的输出基于作为输入的提示值。用于训练EMCDM技术的监督学习技术取决于集成技术的类型。例如,在加权组合EMCDM技术中,MCDM方法是使用监督学习调整的组合权重。在所有的EMCDM训练中,示例集由标记的目标实例组成,其中目标实例被定义为目标在某个时间点的提示数据。

3.3.2 无监督学习

可以从目标中提取各种信息。因此,对于某个目标,可以为系统提供关于目标的大量线索,作为威胁评估的基础。无监督学习可用于分析提示数据,以深入了解底层结构和模式。例如,无监督学习的一种用法是降维。通过降低提示数据的维数,系统可以处理更紧凑和简洁的目标描述。换句话说,目标是以数据可以提供关于目标的大致相同信息但使用较少资源的方式转换数据(例如,使用10个提示而不是50个提示)。

实现降维的一种方法是主成分分析(PCA)[23]。PCA旨在通过学习最大化新子空间中数据方差的线性变换,来表达低维子空间中的数据。最大化数据方差背后的直觉是假设更高的方差意味着更多的信息量。数据原本会有一定量的方差/信息。PCA尝试使用低维子空间来近似数据,同时尽可能多地保留原始方差。PCA的结果之一是检测和去除数据中的冗余,从而在没有不必要的线索的情况下描述目标。然后可以将这些PCA生成的线索视为要使用的新的各种线索。然而,在应用过程中需要考虑基于PCA的假设(例如,方差足以描述信息量,主成分是正交的)。

自动编码器[9]是经过训练以将输入重新创建为其输出的神经网络。自动编码器通常由两部分组成:编码器和解码器。编码器网络生成低维潜在特征。然后将潜在特征输入到解码器网络中,该解码器网络尝试输出最初输入到编码器中的内容。通常存在约束和限制,以防止自动编码器能够完美地重新创建输出(即,它只能提供近似值)。结果,模型被训练为优先使用最有用的数据特征。因此,与PCA类似,自动编码器可用于使目标提示数据更加简洁,并且仅包含足以描述目标的提示数据。自动编码器的其他用法也存在。例如,自动编码器可用于去噪[24]应用程序。这在威胁评估中特别有用,因为目标数据(例如,传感器数据、提示)本质上是含噪的。

除了降维之外,无监督学习的另一个用途是聚类。文献中有大量关于用于聚类的无监督学习算法的工作,所有这些算法都用于威胁评估。在不关注特定算法的情况下,聚类的一种用途是将感兴趣的目标与历史目标进行聚类。这样做的目的是发现感兴趣的目标是否与历史目标相似。如果有关于如何处理过去目标的知识,操作员可以在决定对当前感兴趣的目标采取何种行动时考虑这些信息。

3.3.3 强化学习

可以将威胁评估过程建模为强化学习问题。例如,咨询能力可以在操作期间使用RL来了解操作员希望如何显示信息。这类似于社交网站知道在首页上显示哪些项目的方式。例如,如果RL模型有一个奖励处理速度的策略,它可以测量从ADO开始评估到ADO提交威胁评估所花费的时间。这将允许模型因导致更短的威胁评估过程的行动而获得奖励,从而鼓励更有效的交互选择。如果某个深度为两级的菜单项(即,它需要两次单击才能访问)被频繁使用,则模型可以将该菜单项放置为第一级深度项。如果该项目被非常频繁地使用,则该项目应该在主屏幕上被赋予一个突出的按钮位置。在空中威胁评估应用程序界面上工作的强化学习算法将能够进行这些和其他更改,以检查威胁评估的时间是否正在减少,在这种情况下,它将获得奖励。

有大量研究和许多资源可用于解决MDPs,这使得使用MDPs解决RL问题成为一个不错的选择[25]。

3.4 结构与流程

人工智能工具的结构需要考虑多种因素。该工具将在流程管道中运行,从数据收集和准备开始,到模型训练,然后到模型预测,最后为用户显示结果。在AI工作流程中,可以更容易地将结构视为流程工作流[26]。一旦AI工具经过训练,它就会不断返回到周期的第一阶段,并使用新数据和新见解进行重新训练。这个过程使人工智能工具非常强大,可以随着时间的推移保持准确性和有效性。

人工智能工具开发的第一阶段是收集高质量数据。这些数据将存放在一个或多个可供AI工具访问的数据库中。人工智能工具将首先在数据库中的现有数据上进行训练,然后在生产时,它将主动监控任何操作数据库中的最新数据,以便提供威胁评估。

除了收集数据,还必须确定最有效的机器学习或人工智能模型。该决定需要考虑可用数据的类型、数据的数量及其质量。与最终用户面谈也很重要,以确保所选模型将以对他们有用的格式输出信息。这可能是一个要求,例如最终威胁评估值必须呈现为分类问题(例如,高、中、低)或回归问题(例如,1.4、2.9、9.0)。要求也可能更严格,例如人工智能工具的推理必须能够被人类操作员解释。像这样的要求可能会使现代机器学习研究的整个分支没有吸引力,而是需要不同的模型。由于所选AI模型对整个工具的影响很大,因此必须在模型开发之前的早期阶段收集最终用户的需求。

一旦选择了一个或多个模型类型,就必须对其进行训练。在这个阶段,由于上一步的需求分析,一些AI模型可能已经被淘汰。在此步骤中,将淘汰更多模型。在对数据进行训练之前,通常很难判断哪个机器学习平台最有效。这意味着应该对多个模型进行数据训练,并使用某种准确度指标进行比较。一旦确定了最准确的模型,该模型将被完全训练并准备好在生产中使用。

下一阶段是将模型部署到生产应用中。ADO获得了一个功能性AI工具,可以连接到操作数据库并协助威胁评估过程。输出到ADO的最终值都将被处理和清理,最终格式将被确定。然后,随着所有ADO将其威胁评估以及可用的线索提交给训练数据库,该工具将得到持续训练。这将使该工具能够与新出现的威胁和新情况保持同步。ADO还可以就AI工具提供的评估进行反馈。例如,如果AI工具提供“高”威胁评估,而ADO认为它应该是“中”,则ADO可以提供反馈信号,表明该工具不正确并且威胁等级太高。这将存储在数据中并用于在线训练,使其能够不断地向经验丰富的ADO学习,也可以自学成型。

AI工具流程的最后阶段是将工具转移到精度维护。在这个阶段,需要对工具进行监控,以确保准确性不会下降。该工具也将在此阶段接收反馈并从ADO评估中学习。最后,人工智能工具的开发并没有停留在这个最后阶段;相反,它必须随着威胁的演变、环境和要求的变化以及新的和更相关的数据变得可用,而相应地更新和改进。

图3: AI工具中的模块及其交互

图 3 提供了AI工具中以下模块的可视化表示:

1.数据库组件

  • 存储传感器数据、操作员情报和来自历史数据的人为威胁评估。

2.数据访问和存储模块

  • 与数据库交互以不断地保存和读取来自传感器或人工操作员的数据。
  • 查询数据库以提供关于1个目标的完整信息集,用于预测威胁评估。

3.数据预处理模块

  • 清理数据,处理缺失值,并正确格式化数据以用于训练或训练模型的推理。

4.ML 模型组件

  • 实现机器学习模型的AI组件。这就是将整个工具定义为AI工具的原因。所有其他组件都用于支持该组件。
  • 在训练管道中,模型仍在开发中,可能会同时测试多个模型。
  • 在推理管道中,已经选择了一个模型,并由数据预处理模块提供数据,以便它可以进行预测。

5.数据后处理模块

  • 在将推理步骤的结果显示给用户之前对其进行清理。
  • 可以从零到一之间的预测值映射到更易读的值或类别评级(例如,低、中、高)。

6.可视化/操作员交互模块

  • 负责所有操作员交互。提供数据的可视化和读数,并以最佳方式传达模型对威胁价值的预测。
  • 获取操作员对分配的威胁值的反馈(例如,太高、太低、非常准确)。
  • 与数据访问和存储模块通信,将操作员反馈存储为有用的数据,以供未来训练使用

3.4.1 人工智能工具集成

将ML组件集成到更大的AI工具中需要两条不同的管道。第一个管道将是训练管道,这是进行模型选择、测试和训练的地方。一旦确定了合适的ML模型,并且该模型已经针对所有当前可用的数据进行了训练,它将在称为推理管道的第二个管道中使用。

图4显示了训练管道的可视化。第一步需要收集历史威胁评估数据以及ADO威胁标签(如果所需的ML模型使用监督学习算法)。接下来,这些数据将通过数据预处理模块合并为格式良好的数据集。然后,这个大型数据集将被分成三个不同的集合:

1.训练数据集:该数据集将是ML模型在训练时唯一看到的数据集。它也将是三个数据集中最大的一个。通常在本节中描述的三组之间决定百分比分配。这取决于系统设计者的判断。常见的比率是80/20或90/10,具体取决于可用训练点的数量。这些点将用于训练模型,但重要的是保留一个保留数据集,以确保您的模型不会过度拟合训练数据(即,无法泛化到新的未见数据点)。

2.验证数据集:这将在训练进行时用作测试集。这些数据不会用于训练模型,而是在训练的非常时期结束时,将在这个小集合上测试模型。这对于确定模型何时得到充分训练很有用。即使模型在训练数据集上的损失可能会继续减少,但如果验证集上的损失已经趋于稳定,那么模型可能会过度拟合训练数据集,应该停止训练。

3.测试数据集:该数据集将为所有候选 ML 模型提供最终评估指标。它不会用于训练,并且模型设计者也必须不要检查此数据集。这将确保模型超参数不会根据此测试数据集进行调整。测试数据集的价值在于发现ML模型是否可以泛化到来自类似于训练示例分布的看不见的数据点。如果测试数据集的损失远高于训练集和验证集,则模型很可能对其训练数据进行过拟合。如果有多个候选ML模型,则可以使用测试数据集上的损失和准确率来确定选择哪个模型。

在模型训练期间将使用训练和验证数据集,在模型评估期间将使用测试数据集。

图4 :ML 模型训练管道

一旦最佳候选ML模型经过训练和选择,它将用于AI工具的生产版本。该模型将用于实时提供在线推理/预测。候选模型的训练和测试可以继续进行,也可以纳入新模型或研究。这将确保AI工具始终使用性能最佳的ML模型。

一旦经过训练的模型展示了所需水平的能力,就该使用推理管道了。推理管道是ML组件,将在操作中使用的实际AI工具中使用。该管道的示意图如图5所示。

图5:ML 模型推理管道

人工智能工具将被要求不断监控传感器和操作员的情报,以获得最准确的现实画面。该数据将组合成与每个空中目标相关的提示数据集。一旦一组提示数据可用,它将被提供给ML模型,以便进行预测。然后,该预测将通过本工作前面讨论的AI工具的其他组件提供给ADO。一旦投入生产,该模型还将通过运行来自新威胁评估情况的示例和迄今为止ADO对预测的反馈来保持最新状态。这种训练可以以在线方式(即连续)完成,也可以通过批量训练(即以设定的时间间隔一次对所有示例进行训练)完成。该模型还将对其性能进行监控,以确保准确性和损失不会随着操作现实的变化而随着时间的推移而降低。如果检测到性能下降,则人工干预和纠正可以使系统恢复到以前的性能水平。

3.5 威胁评估和人工智能流程

本小节将解释威胁评估过程的背景以及传统上它是如何完成的。它还将标志着传统流程中的挑战和通过智能决策支持系统(DSS)改进的机会。还将介绍AI工具及其与传统DSS威胁评估的关系。

3.5.1 用于威胁评估的因素和结构

有关因素信息和分类的描述,请参见[21]。出于 AI 目的,因素数据应构造为包含m个因素的向量,其中m是观察中的因素数量,每个条目是一个因素值。每个完整的向量都是一个样本,如果有足够大的样本训练数据集,就可以进行机器学习。

对于空中威胁评估,已经确定了16个因素来构成关于目标的最有价值的信息[4]。这些见表 1。

表 1:用于目标威胁评估的因素。

3.5.2 挑战和机遇

威胁评估过程绝非易事。这是一项压力极大的任务,需要做出复杂的决策。该过程的认知和物理性质是由于各种原因造成的,当它们结合起来时,会对操作员的决策过程产生不利影响。

操作员不仅必须处理来自各种来源的大量和类型的信息,而且还要同时管理多个任务。例如,操作员管理可能来自众多媒体、显示器和人员的音频、口头和视觉信息[4]。除此之外,他们还必须执行其他任务,例如监控指定监视区域内的空中目标、了解可用资源以及准备情况报告[4]。这种高度的多任务处理和信息过载给威胁评估任务带来了认知复杂性和身体压力。

除了大量数据之外,运营商还面临着信息中固有的不确定性。运营商必须考虑到数据源的不完善性以及人类行为的不可预测性[3]。不确定性量化和感知在威胁评估过程(和战术军事行动一般[3],因为运营商依赖决策过程中的数据来获取环境(和对手)的感知。

在时间限制下操作人员的工作也造成了相当大的压力。需要时间来收集信息、处理信息并最大限度地减少不确定性。但是,空中目标正在高速移动,因此必须根据可用的融合做出决策此外,用于信息收集/处理和不确定性最小化的时间越多,制定后续决策和行动的时间就越少,对手收集/处理信息和行动的时间就越多。最后,错误决定的后果是严重的,甚至可能是灾难性的。飞机的错误分类1988年造成290名平民死亡的事件[27]就是决策失误的一个例子。操作员工作的重要性和不正确执行的后果增加了任务的压力。

运营商在威胁评估过程中面临的挑战促使人们研究如何在不影响威胁评估可靠性的情况下减轻认知和物理工作量。更具体地说,有机会开发用于空中目标威胁评估的决策支持系统(DSS)[4]。围绕DSS的设计原则(即DSS 所包含的内容)有许多著作。

DSS的关键要求之一是它不能取代运营商;相反,DSS是对运营商的补充。[3]将此要求描述为DSS充当“决策支持而非决策自动化”。这方面允许在威胁评估过程中操作员和系统之间的协作。让人参与决策过程是至关重要的:人在环方面确保每个决策都有责任。军事行动的合法性要求问责是其行动的组成部分,问责包括明确的合法性和道德标准。如果在这个过程中没有操作者,那么谁应该为错误决策的后果负责的模糊性就会带来法律和道德上的分歧。

除了确保操作员始终参与决策之外,文献中还介绍了其他设计原则。[2]根据文献及其实地工作,详细列出了设计威胁评估系统的规则。显著的设计特点包括:

1.透明度:DSS应该能够证明其计算和后续建议的合理性[3,4]。因此,DSS应向操作员提供导致最终值[2]的中间计算以及每个提示对最终威胁值[4]的影响。消除DSS的黑盒特性的重要性在于建立对系统的信心和信任[3]。如果不知道决策/建议是如何生成的,人类不太可能接受自动化系统的决策/建议[29]。理解上的不透明为误用和错误创造了机会[12]。由于使用机器学习方法来构建AI工具,因此这是这项工作的一个重要考虑因素。机器学习方法不限于人类定义的决策规则,因此可以表现出黑盒性质。因此,与传统DSS相比,AI工具的透明度更为重要。

2.处理不确定性:DSS决策所依据的数据中有许多不确定性来源(例如,传感器数据、威胁值计算中的参数)[2]。处理不确定性也是DSS的一个重要设计特征,因为它允许运营商调整他们对系统的信任级别。在[2]中,这个设计方面是通过使用提示数据的区间表示来实现的。

3.信息的有效和交互式显示:使用图形格式显示信息很重要,因为威胁是一个模糊的概念[4]。应传达给操作员的重要信息是威胁等级、威胁历史、线索列表[4],以及与建议相关的不确定性[3]。除了显示信息之外,系统还必须能够提供操作员可以与之交互的媒介。这可确保操作员留在威胁评估过程中[3]。

本报告中提出的人工智能工具可作为空中目标威胁评估的DSS。人工智能工具的人工智能方面在于系统的运行方式。更具体地说,人工智能工具将把人工智能概念(例如,机器学习、适应)纳入其操作中。

3.6 AI 工具

AI工具将能够集成到空中威胁评估的所有阶段。本小节将描述威胁评估的每个阶段与AI工具的能力之间的关系。

空中威胁评估的阶段如下[4]:

1.扫描并选择提示。

2.比较、调整适合和适应。

3.计算威胁等级。

4.继续处理。

关于1(扫描并选择提示),AI工具将能够使用所有可用的提示。这与人类操作员不同,后者仅审查18个可用于评估飞机的线索中的6到13个[4]。这些信息将通过各种传感器从环境中收集,然后通过通常的情报报告或传感器读数方式进行报告。这些数据将被编译到一个数据库中,供AI工具访问以从中进行学习和预测。

关于2(比较、调整拟合和适应),AI工具将对数据库中可用的线索进行计算。该数据可以与ADO专家提供的感知数据(例如预期海拔)进行比较,并检查实际数据是否一致。如果数据与预期不一致,人工智能工具会将差异与历史示例进行比较,以提供对差异的解释或调整。如果数据无法协调,则可能需要调整模型的拟合度,人工智能工具可以选择将飞机作为不同类型(即军用、民用)进行处理。

关于3(计算威胁评级),人工智能工具将使用可用的线索,如果它增强预测,可能还会使用这些线索的子集,来预测目标的威胁评级。 Liebhaber、Kobus 和 Smith 在[30]中发现威胁等级独立于检查的线索数量。

关于4(继续处理),如果所有提示数据都可以充分解释,人工智能工具将完成分析,或者它将继续搜索和处理新的提示。这个过程将一直持续到模型通过基于解释的输出获得ADO的批准,或者直到所有可用的线索都被处理并且模型拟合得到尽可能好的调整。

3.7 AI 工具在威胁评估中的挑战

第3.5.2节概述的关于操作员对DSS的信任的关键点之一是用于生成威胁评估结果的模型的透明度。操作员很难对没有提供理由和解释的机器辅助预测有信心[4]。出于这个原因,已经创建了许多在计算和标准加权方面具有透明度的DSS方法。例如,许多MCDM方法可以为每个单独属性的权重以及它们如何对最终威胁评估做出贡献提供充分的理由。这是MCDM DSS工具的优势之一。不幸的是,这种透明性可能会导致工具缺乏复杂性和表现力。相反,机器学习工具可以同时基于所有数据点之间的非常深的联系做出假设,这可能是以人类不会的方式。这种增加的复杂性往往会降低工具的透明度和可解释性。

某些机器学习方法的结果仍然是透明的,并且以与自学的MCDM方法相似的方式工作。例如,线性回归模型可以提供每个线索如何影响最终威胁评估评估的完整理由。该模型既受益于透明度,也受益于无需人类专家参与的自学。

其他一些机器学习模型并没有从透明度中受益。最先进的机器学习模型之一是神经网络。这是一个拥有大量研究的大领域,也是深度学习分支的新爆炸。这些方法不那么透明。在[31]中发现的2020年文献调查探索了许多现有的试图使神经网络和深度神经网络推理对最终用户可解释的工作,但是,局限性仍然存在。

现实世界的威胁评估变量通常包括决策过程各个级别的不确定性。对威胁评估准确性的最大影响之一来自根本没有获取的数据。这种丢失的数据可能是由于无法收集、传感器故障、传感器误报或许多其他原因造成的。当数据完全丢失时,就很难就目标所拥有的威胁做出明智的决定。幸运的是,机器擅长执行计算,可以估计、替换或忽略丢失的数据。

在[22]中,探索了为每个决策结构预先计算不同查找表的选项。这将涉及根据每种可能的信息缺乏状态训练许多不同的模型,并将它们与完整状态相关联。这假设对于训练有大量完整的示例可供借鉴。不幸的是,“为所有可能的输入组合训练网络的天真的策略在复杂性上呈爆炸式增长,并且需要为所有相关案例提供足够的数据”[32]。相反,[32]建议定义一个可以被认为是真实的基础模型,然后将所有数据与该模型相关联。

在许多可能的情况下,在训练时没有或只有很少的完整示例可用。在这种情况下,必须确定是仅使用完整数据进行训练,还是以某种方式合并不完整的示例。在[32]中,发现用均值代替缺失输入会导致比仅基于完整示例训练网络更差的性能。因此,寻求改变神经网络架构或训练方法的方法,以有效地合并(可能大量)不完整的数据示例。

使用不完整数据进行训练的最有效方法之一来自[33]。本文证实,在训练神经网络中使用原始不完整数据可能是比在学习开始之前填充缺失属性更好的方法。所采用的方法涉及对神经网络架构的轻微改变,但应该与大多数现有架构兼容。该方法通过将第一个隐藏层中典型神经元的响应替换为其期望值来工作。高斯混合模型在每个神经元的输出上进行训练,以学习概率密度函数和期望值。这消除了通过单个值对任何缺失属性进行直接插补的需要。 “隐藏层不是计算单个数据点的激活函数(对于完整的数据点),而是计算神经元的预期激活”[33]。该方法还取得了与其他现有方法可比的结果,这些方法可以从不完整的数据中进行预测,但需要完整的数据进行训练。

另一种方法可以通过提高缺失数据插补的准确性来采取。[34]研究了文献中许多可能的数据插补解决方案。它还指出,一些无监督学习聚类算法,如分类和回归树(CART)和K-means,已适用于缺失数据的问题。缺失数据插补的优点是不需要对实际的机器学习模型或平台进行任何更改。当前存在或将来构建的任何基于完整数据提供准确预测的方法都将有效地处理通过插补生成的数据。数据插补的目标是以尽可能接近现有真实数据分布的方式填充缺失值。如果成功完成,则可以对新完成的数据使用现有的统计分析和机器学习工具。

4 AI工具的架构

在本节中,将讨论AI工具的潜在架构。将涵盖从面向操作员的界面到AI组件组合的设计。所提出的AI工具的整体架构可以在参考文献[35]中看到,它需要三个主要组件,如图6所示。

图6:AI 工具的概念框架

未来的人工智能工具可能会将旧的基于模型或自上而下的方法与新的数据驱动的自下而上的方法结合起来。这种类型的系统允许人工智能工具拥有一个由数百或数千个专家派生规则以及数百万条特定领域知识(如历史传感器数据)组成的知识库[36]。一种可以结合领域专业知识和数据驱动学习的人工智能系统是回归树。围绕回归或分类树构建用于空中威胁评估的AI工具将是一个不错的选择。回归树的另一个好处是它们的输出可以被人类操作员解释,并且可以解释它的选择。整个模型基于一系列决策或规则,这些决策或规则可以在操作员界面中作为理由提供。这使ADOs可以对AI工具提供的评估充满信心,或者质疑为什么某个值的解释与他们的解释不同。

AI工具的前端组件将是所有ADO交互发生的地方。它将显示可用信息和AI工具获得的见解。它还将允许ADO与信息交互并形成自己的结论。此前端将需要分析ADO工作流程。在[4]中已经对美国海军ADOs进行了采访,并提出了许多不同的图形显示建议。前端应显示计算出的轨道威胁等级,并为该评估提供证据和解释。还应提供原始数据,以便ADOs可以确认AI工具的假设。尽可能以图形方式呈现给用户的概率,因为这会减少冒险行为[37]。前端还将通过使用强化学习来利用AI功能。应制定一项奖励快速完成ADO活动的政策,例如将资源分配到目标轨道以保护资产。此RL算法将能够决定用户界面(UI)元素的放置位置以及UI上显示的内容。如果将常见动作从菜单移动到主显示屏增加了RL功能获得的奖励,那么ADO完成任务所用的时间将会减少。这确保了前端最终变得最优,并适合实际ADOs的工作流程。

人工智能工具后端的两个不同元素之间存在区别。在AI中,该工具可以是正在学习的,也可以是经过全面训练并准备好执行的。首先将检查学习后端。无论是第一次训练AI工具还是处于持续学习状态,它都会利用学习后端。学习后端连接到包含历史数据的知识数据库,可用于提供数百万对自下而上的人工智能技术有用的数据点。这是机器学习和决策树将特别有效的地方。如果实施决策树学习算法,它将能够创建有助于根据历史数据和决策对新目标进行分类的规则。这些规则还允许AI工具向ADOs解释其输出。

当工具准备好用于生产并与前端交互时,将使用正在执行的后端。这种执行就绪状态将存储自上而下或基于模型的人工智能的人类专家规则。该组件将是一个由学习后端辅助的专家系统。通过对ADOs的专业知识和对目标线索重要性的看法的采访中获得的数千条规则将使其成为AI组件。同时,通过将这些人工规则与通过机器学习在学习后端找到的规则相结合,可以优化值和预测。

一些功能性和非功能性需求可以从目前已知的用于威胁评估的AI工具中指定。更高级的要求应通过与未来ADO 客户的面谈来制定。

4.1 功能需求

1.当传感器或智能数据更新时,人工智能工具应摄取数据并进行训练或预测。

2.AI 工具应为 ADO 定义的感兴趣区域内的所有目标提供评估预测。

3.界面应提供评估说明并允许 ADO 交互。

4.AI 工具应提供自动模型训练或新数据的重新训练。

5.AI 工具应与 ADO 请求时可用的任何数据子集一起使用,并在新数据可用时合并它。

4.2 非功能性要求

1.AI 工具应在数据可用后 100 毫秒内提取数据。

2.AI 工具必须处理每个实例和感兴趣区域的数百个目标。

3.AI 工具应在 2 秒内提供 ADO 要求的特定威胁评估。

4.界面必须符合 ADO 偏好,并允许在 3 次点击内访问所有常用命令。

5.人工智能工具必须对缺失的数据做出强有力的反应,并继续进行评估和学习。

4.3 未来步骤

本报告之后的下一步将是开发供ADOs用于空中威胁评估的AI工具。为完成此目标应采取的一系列步骤如下:

1.需求分析:人工智能工具开发人员应在威胁评估过程的每个阶段与关键决策者坐下来。应采访ADOs,以确保该工具满足其工作模式和预期结果的所有要求。还应与流程早期的关键人员进行面谈,以确保系统兼容性。这将包括传感器和其他资产经理,他们可以确认系统输出将如何格式化并提供给AI工具。人工智能工具完成分析后,需要以有用的格式输出和存储,因此依赖人工智能工具输出的系统中的决策者应该分析他们的需求。

2.确定AI工具所需的组件:完成需求分析后,开发人员应决定哪些通用AI工具组件将需要,哪些可以省略(如果有的话)。可能还需要开发某些专门的组件来支持威胁评估和军事环境所面临的独特挑战。应该开发工具的架构,并为每个组件分配明确的职责。该架构还将受益于每个组件之间的严格输入和输出合同,以便数据可用于现有系统。

3.AI和ML组件的选择和评估:架构和需求确定后,应该明确哪些类型的AI和ML适合该问题。每个可能涉及AI或ML的组件都需要提出和训练多个候选人。然后将比较这些候选者,以确定哪个最有效地解决了独特的要求。一旦选择了最佳模型并选择了正确的AI类型,所有模型将被移入生产环境并准备连接到AI工具中的其他组件。

4.文档和培训:一旦开发了最终的AI工具并通过代码注释和其他文档工具正确记录了文档,就该开发外部文档了。该文档应传达AI工具的实用性以及如何有效使用它及其功能。审查ADO要求将有助于为受众塑造文档。一旦开发了该工具,培训会和从ADOs收集反馈将很有用。

5.集成到生产系统:人工智能工具将投入生产,以协助ADOs进行空中威胁评估。需要检查智能管道中较早的系统和管道中较晚的系统之间的所有连接以确认兼容性。

6.监控和维护:随着时间的推移,随着新威胁或新情况的发现,人工智能工具将能够得到更新和改进。无论是通过人工还是自动系统,持续监控AI工具以确保预测质量不会随着时间的推移而降低,这一点很重要。通过使用新版本更新旧模型,也可以纳入AI和ML研究的新改进。

5 结论

人工智能工具是执行通常由人类处理的复杂任务的最先进方法。这为提高人类操作员的效率和有效性提供了许多可能性,例如执行高脑力任务的ADOs。威胁评估就是这样一项非常适合人工智能协助的任务。重要的是要承认,人工智能工具不会取代操作员做出关键决策:相反,它们将为决策者提供更准确的数据,以有效地做出关键和及时的决策。

将ML集成到AI工具中可以带来许多过去只能通过人类设计才能实现的新可能性。ML可以让AI工具在没有人类教授或者面对不断变化的情境要求或敌人能力的情况下,从数据中学习。它可以重新设计AI工具交互,使其对 ADOs尽可能有用。它可以帮助将新目标与历史示例进行聚类,从而为ADOs提供更好的威胁心理模型。可以自动检测异常数据或空中目标并向操作员报告。

熟练和经验丰富的ADOs与AI工具的结合将实现更快、更准确和更强大的空中威胁评估。通过让人工操作员参与进来,该工具将保持ADO的责任和专业知识,同时提高生产力和效率。结合处理不完整数据状态的现代方法也将使该工具对数据不准确或不可用具有鲁棒性。

因此,该工具应该有助于国防和威胁评估过程。

成为VIP会员查看完整内容
中文版-加拿大国防研究中心《用于威胁评估的人工智能工具》技术报告.pdf
164

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
北约《军事系统的网络安全风险评估》技术报告
专知会员服务
91+阅读 · 2022年4月18日
《美国陆军武器系统手册(2020-2021)》432页pdf
专知会员服务
112+阅读 · 2022年4月11日
《人工智能在无人机中的应用》报告,60页pdf
专知会员服务
139+阅读 · 2022年3月30日
【AI+医疗健康】美国数字健康战略(附44页最新报告)
专知会员服务
89+阅读 · 2022年3月15日
2022技术趋势(中文版),113页ppt
专知
3+阅读 · 2022年4月12日
国家自然科学基金
91+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
46+阅读 · 2021年10月4日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
VIP会员
相关基金
国家自然科学基金
91+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员