人工智能和因果推理阐述了人工智能(AI)和因果推理之间关系的最新发展。尽管人工智能取得了重大进展,但我们仍然面临着人工智能发展中的一个巨大挑战,即理解智能背后的机制,包括推理、计划和想象。理解、迁移和概括是提高智能的主要原则。因果推理是理解的一个关键组成部分。因果推理包括干预、领域转移学习、时间结构和反事实思维等概念,是理解因果关系和推理的主要概念。不幸的是,这些因果关系的重要组成部分经常被机器学习忽略,这导致了深度学习的一些失败。人工智能和因果推理包括:(1)将人工智能技术作为因果分析的主要工具;(2)将因果概念和因果分析方法应用于解决人工智能问题。这本书的目的是填补人工智能和现代因果分析之间的空白,进一步促进人工智能革命。这本书是理想的研究生和研究人员在人工智能,数据科学,因果推理,统计,基因组学,生物信息学和精准医学。

https://www.routledge.com/Artificial-Intelligence-and-Causal-Inference/Xiong/p/book/9780367859404

涵盖三种类型的神经网络,制定深度学习作为最优控制问题。 * 非线性中介的深度学习与工具变量因果分析。 * 因果网络的构建是一个连续优化问题。 * Transformer和注意力用于图的编码解码。RL用于推断大型因果网络。 * 使用VAE、GAN、神经微分方程、回归神经网络(RNN)和RL来估计反事实的结果。 * 网络干扰下基于人工智能的个体化治疗效果估计方法。

成为VIP会员查看完整内容
96
0

使用免费且易于学习的网络工具,用数据讲述你的故事并展示出来。这本入门书教你如何为你的网站设计交互式图表和定制地图,从简单的拖放工具开始,如谷歌Sheets、Datawrapper和Tableau Public。你也将逐渐学会如何编辑开源代码模板,如图表.js, Highcharts,和在GitHub上的传单。

动手数据可视化将通过教程,现实世界的例子和在线资源逐步带您。这本实用指南对于学生、非营利组织、小企业主、地方政府、记者、学者以及任何想要从电子表格中提取数据并将其转化为生动互动故事的人来说都是理想的。不需要编码经验。

这本书,你将学习如何通过混合设计原则和一步一步的教程的章节来创建真实和有意义的数据可视化,从而使你的基于信息的分析和论证更有洞察力和说服力。就像句子有了支持性证据和来源说明会变得更有说服力一样,你的数据驱动写作在搭配适当的表格、图表或地图时也会变得更强大。文字告诉我们故事,而可视化通过将数量、关系或空间模式转换为图像向我们展示数据故事。当可视化设计良好时,它们会将我们的注意力吸引到数据中最重要的东西上,而这是很难通过文本进行交流的。

我们的书以越来越多的免费和易于学习的数字工具为特色,用于创建数据可视化。我们将这一术语广义地定义为:将数据编码为图像的图表和添加空间维度的地图。虽然表格不能以同样的方式展示数据,但我们在本书中包含它们,是因为我们的实用需要引导新学习者通过决策过程,通常导致构建这三种产品之一。此外,在这个数字时代,我们将数据可视化定义为可以通过修改底层信息(通常存储在数据文件中)轻松重用的图像,而不是通常设计为一次性艺术品的信息图。

我们设计了动手数据可视化来介绍关键概念,并为新学习者提供一步一步的教程。你可以自学,也可以用书来教别人。另外,与许多只关注于一个工具的技术书籍不同,我们的书指导您如何在我们推荐的20多个免费且易于使用的可视化工具中进行选择。最后,虽然其他一些书只关注只能分布在纸上或PDF文档上的静态可视化,但我们演示了如何设计交互式表格、图表和地图,并将它们嵌入到web上。交互式可视化通过邀请他们与数据进行交互,探索他们感兴趣的模式,如果需要的话下载文件,并轻松地在社交媒体上分享您的工作,从而在互联网上吸引更广泛的受众。

https://www.oreilly.com/library/view/hands-on-data-visualization/9781492085997/

成为VIP会员查看完整内容
83
0

数学建模:模型,分析和应用,第二版介绍了离散和连续系统的模型。这本书是针对新来者谁希望学习数学建模,特别是学生在这个主题的第一个课程。从模型制定的一步一步的指导开始,这本书使读者能够使用差分方程(离散模型)、ODE、PDE、延迟和随机微分方程(连续模型)建模。这本书提供数学建模的跨学科和综合的概述,使它为广泛的读者成为一个完整的教科书。

本书的一个特点是涵盖了数学模型的不同例子,包括人口模型、经济模型、军备竞赛模型、战斗模型、学习模型、酒精动力学模型、碳定年法、药物分布模型、机械振荡模型、流行病模型、肿瘤模型、交通流模型、犯罪流模型、空间模型、足球队表现模型、呼吸模型、二神经元系统模型、僵尸模型、恋爱模型。共同的主题,如平衡点,稳定性,相平面分析,分岔,极限环,周期加倍和混沌运行了几个章节,并强调了它们在模型的背景下的解释。第三章讨论了利用实际数据进行系统参数估计以进行模型验证。

https://www.routledge.com/Mathematical-Modeling-Models-Analysis-and-Applications/Banerjee/p/book/9781138495944

成为VIP会员查看完整内容
60
0

该讲座主要面向机器学习、计算机科学或相关学位的硕士学生,但也可能吸引其他学科的学生,如数学、物理、语言学、经济学等。如果有疑问,请参加第一堂课并与我们交谈。

该报告的重点是机器学习的算法和理论两个方面。我们将介绍许多标准算法,并了解构建良好机器学习算法的一般原理和理论结果。主题范围从已经确立的结果到最近的结果。

  • 贝叶斯决策理论,没有免费的午餐定理。
  • 监督学习问题(回归,分类): 简单基线(最近邻,随机森林);线性方法;正则化; 支持向量机,非线性核方法及其背后的理论
  • 无监督学习问题:PCA降维到流形方法从k-means到谱聚类和谱图理论,从MDS到t-SNE的嵌入算法
  • 统计学习理论:一致性和泛化界限
  • 社会背景下的机器学习:公平、可解释性等
  • 低秩矩阵完成,压缩感知
  • 排序

https://www.tml.cs.uni-tuebingen.de/teaching/2022_statistical_learning/index.php

成为VIP会员查看完整内容
65
0

Python的简单性使您能够快速地提高工作效率,但这通常意味着您不能使用它所提供的所有功能。在这个实践指南的更新版中,您将学习如何利用Python3的最佳思想来编写有效的、现代的代码。

发现并应用超出您过去经验的惯用Python 3特性。作者Luciano Ramalho将指导您了解Python的核心语言特性和库,并教你如何使您的代码更短、更快、更易读。

本书的主要更新包括:Fluent Python,第二版,包括:

特殊方法: Python对象行为一致的关键 数据结构: 序列、字典、集合、Unicode和数据类 函数作为对象: 一级函数、相关设计模式和函数声明中的类型提示 面向对象的习惯用法: 组合、继承、mixins、接口、操作符重载、静态类型和协议 控制流: 上下文管理器、生成器、协程、async/await和线程/进程池 元编程: 比元类更简单的属性、属性描述符、类装饰器和新的类元编程

https://www.oreilly.com/library/view/fluent-python-2nd/9781492056348/

成为VIP会员查看完整内容
53
0

摘要

Transformer体系结构在自然语言处理和计算机视觉领域有着广泛的应用。近年来,Transformer已被应用于时间序列分析的各个方面。本教程概述了Transformer架构及其应用程序,并收集了来自时间序列分析方面的最新研究论文的示例。我们深入地解释了Transformer的核心组件,包括自注意力机制、位置编码、多头和编码器/解码器。Transformer体系结构处理时间序列任务。本教程还提供了最佳实践和技术,以克服有效训练transformer进行时间序列分析的挑战。

引言

Transformers 属于一类以自注意力或缩放点积运算为主要学习机制的机器学习模型。Transformers最初被提出用于神经机器翻译——最具挑战性的自然语言处理(NLP)任务之一[64]。最近,Transformers 已经成功地用于解决机器学习中的各种问题,并取得了最先进的性能。除了经典的NLP任务,其他领域的例子包括图像分类、目标检测和分割、图像和语言生成、强化学习中的顺序决策、多模态(文本、语音和图像)数据处理,以及表格和时间序列数据的分析。本教程重点介绍使用Transformers进行时间序列分析。时间序列数据由有序的样本、观测数据或随时间顺序记录的特征组成。时间序列数据集通常在许多实际应用程序中自然产生,这些应用程序在固定的采样间隔内记录数据。示例包括股票价格、数字化语音信号、交通测量、天气模式的传感器数据、生物医学测量以及随时间记录的各种人口数据。时间序列分析可以包括处理多个任务的数字数据,包括预测、预测或分类。统计方法包括使用各种类型的模型,如自回归(AR)、移动平均(MA)、自回归移动平均(ARMA)、AR综合移动平均(ARIMA)和频谱分析技术。

具有专门组件和架构的机器学习模型,用于处理数据的顺序性质,已经在文献中被广泛提出,并被社区使用。这些机器学习模型中最著名的是循环神经网络(RNN)及其流行的变体,包括长-短期记忆(LSTM)和门控循环单元(GRU)[35],[23],[13]。这些模型按顺序处理一批数据,每次处理一个样本,并使用著名的梯度下降算法优化未知模型参数。利用时间反向传播(backpropagation through time, BPTT)[10]计算模型参数更新的梯度信息。LSTM和GRU已成功地应用于许多领域。然而,由于输入数据的顺序处理和与BPTT相关的挑战,特别是在处理具有长依赖关系的数据集时,它们受到了一些限制。LSTM和GRU模型的训练过程中也存在梯度消失和梯度爆炸问题。在处理长序列时,梯度下降算法(使用BPTT)可能不会更新模型参数,因为梯度信息丢失了(要么接近零,要么接近无穷)。此外,这些模型通常不能从图形处理单元(GPU)、张量处理单元(TPU)和其他硬件提供的并行计算中获益。某些架构修改和训练技巧可以帮助LSTM和GRU在一定程度上减轻梯度相关的问题。然而,在现代硬件提供的有限的并行使用下,从长数据序列中学习的挑战影响了基于RNN模型[55]的有效性和效率。

在本教程中,我们首先概述基于第2节中的自注意力、缩放点积、多头和位置编码的transformer 体系结构。第3节介绍了时间序列应用中transformer的进步。然后,我们将在第4节中讨论一些最近最流行的时间序列Transformer架构。最后,在结束教程论文之前,我们在第5节中提供了训练transformer 的“最佳实践”。

Transformer 技术概述

在本教程中,我们首先概述基于第2节中的自注意力、缩放点积、多头和位置编码的transformer 体系结构。第3节介绍了时间序列应用中transformer的进步。然后,我们将在第4节中讨论一些最近最流行的时间序列Transformer架构。最后,在结束教程论文之前,我们在第5节中提供了训练transformer 的“最佳实践”。

原始的Transformer是一个序列到序列的模型,采用编码器-解码器类型的配置,它接受源语言的单词序列作为输入,然后生成目标语言的译文[58,64]。考虑到两个序列的长度和词汇量不一定相同,模型必须学会将源序列编码为固定长度的表示,然后对其进行解码,以自回归方式[8]生成目标序列。这种自回归特性具有一个约束条件,即在生成已翻译序列期间,要求信息传播回序列的开头。时间序列分析也存在同样的约束。机器学习模型一直受到学习过程中可以考虑的特定数据样本的影响的限制。在某些情况下,机器学习模型训练的自回归性质会导致记忆过去的观察结果,而不是将训练示例泛化到新数据[36,30]。Transformer在分析序列中的当前数据样本时,通过使用自注意力和位置编码技术共同关注和编码顺序信息,解决了这些挑战。这些技术保持序列信息完整的学习,同时摆脱了经典的递归概念[21]。这些技术进一步允许Transformer利用GPU和TPU提供的并行性。

Transformer时间序列分析

自2017年《Transformers 》问世以来[64],这些时间序列分析网络取得了许多进展。最初的模型主要关注于NLP任务,但现在的架构已经扩展到分类[76]、时间序列分析[57]、语义分割[79]等。时间序列数据并不是Transformer最初概念的一部分,但现在许多研究人员已经定制并改进了这种数据类型的架构性能。为了说明这项研究是如何展开的,我们将提供一个时间序列任务的路线图,以及技术是如何进步的。这些改进的一个共同点是修改输入层以适应时间序列数据。使用Transformers进行时间序列分析、预测和分类完成了两个主要任务。在每一项任务中,我们都提供了有用的信息和最新方法中使用的数据集的链接。本节的路线图全面列出了过去几年取得的进展,以及它们之间的关系**。在每一小节的末尾都列出了该类别中所包含的模型(和引用)。

时间序列Transformers改进方法概述。左边是原始Transformer架构的重建[64]。右侧显示了第3.1小节中相对于原始Transformer模型的每个改进路径在原始体系结构中的位置。

Transformer时间序列架构

最近,Zhou等人提出了Informer,它使用ProbSparse自注意力机制来优化标准Transformer架构的计算复杂度和内存使用[80]。作者还引入了自注意力蒸馏操作,这大大降低了模型的总空间复杂度。[80]中提出的Informer体系结构。Informer 由堆叠的编码器和解码器组成。该编码器由多头ProbSparse自注意力和自注意力提取操作组成。堆叠副本的输入长度为前一层的一半。编码器输出是主栈和复制栈输出的串联。该译码器具有两个堆叠的多头注意力层,并在一次向前传递中同时预测整个输出序列。

Li等人提出了LogSparse transformer来克服内存挑战,从而使transformer对于长期依赖[32]的时间序列更加可行。LogSparse transformer允许每个时间步长关注之前的时间步长,使用指数步长进行选择,将每个自关注层的内存利用率从O(l2)降低到O(llog2l)。图13显示了LogSparse自注意用于时间序列分析的各种方式。在特定范围内,用于相邻时间步长的规范的自注意力机制允许收集更多的信息。除此之外,还应用了LogSparse自注意力机制。另一种方法是在特定的时间步长范围后重新启动LogSparse步长。

介绍了[9]中引入的Traffic Transformer。该编码器由用于捕获交通数据空间相关性的图神经网络组成,其次是前馈层。输出被输入到Transformer编码器以捕获时间依赖项。编码器的输出输入到Transformer解码器,它的组成与编码器类似。位置信息通过添加或基于相似性的组合来包含。

Transformer时间序列训练最佳实践

Transformer架构变得越来越流行,这导致许多研究人员寻求针对各种应用程序优化这些网络的方法。是否在调整架构以用于特定的问题领域、训练技术、超参数优化、推理方法、硬件适应等方面。在本节中,我们将讨论用于时间序列分析的transformers时的最佳实践。**

训练Transformers

对于初学者来说,从头开始训练Transformers 并不容易。原始的Transformers 体系结构[64]利用许多不同的策略在更深的网络训练期间稳定梯度。作者的残差连接允许训练一个更深的网络。随后,层归一化操作与自适应优化器(Adam)一起添加,为不同参数提供不同的学习速率。像大多数其他深度学习模型一样,Transformers对学习速率也很敏感。给定最优的学习速率,Transformers 可以比传统序列模型更快地收敛。在最初的几个时期,通常会观察到性能下降。然而,经过几个时期后,该模型通常会开始收敛到更好的值。在最初的实现中,作者使用了一种热身学习率策略,该策略在前N个训练步骤中线性增加,然后与步骤数的平方根√1n成比例下降。

在Transformer架构中已经提出了许多改进,以解决与使用更深入的架构实现稳定训练相关的一些问题。主要是通过重新定位层归一化操作和寻找更好的权值初始化技术来平衡残差依赖关系。这些改进导致了更稳定的训练,在某些情况下,消除了使用原始架构中提出的一些策略的需要。图16提供了一些训练transformer的最佳实践的概述,以及它们各自的原因。

成为VIP会员查看完整内容
54
0

本书系统地介绍了机器人学的基础理论知识-重心放在机器人机构、规划与控制三个方面-为机器人学的入门教材-可纳入到机器人导论的范畴。

全书以现代数学分支之一——旋量理论为工具和桥梁-衔接全书知识体系。这既是书名定为《现代机器人学:机构、规划与控制》的主要依据-也是本书区别其他机器人导论类教材的重要特征。

全书总共13章-第1章为绪论。第2章主要介绍与机器人机构有关的若干基本概念-第3章作为全书的理论基础-详细讨论如何应用旋量理论构建刚体运动模型的过程;第47章主要讲述有关机器人运动学方面的基础内容-包括开链机器人正向运动学(第4章)、一阶运动学与静力学(第5章)、逆向运动学(第6章)和并联机器人运动学(第7章)。第811章主要讲述有关机器人动力学、规划与控制方面的基础内容-包括开链机器人动力学建模(第8章)、轨迹生成(第9章)与运动规划算法(第10章)以及经典的机器人控制方法等(第11章)。第1213章主要介绍机器人的两种典型形态—操作手与移动机器人的基础知识与原理。此外-作为正文的补充-增加了4个附录内容-包括全书重要结论、刚体姿态描述方法、D-H参数法以及优化算法等。

本书可作为高年级机器人工程专业本科专业教材或研究生教材-也可作为相关科研人员与工程技术人员参考用书。

凯文.林茨(Kevin M. Lynch)

IEEE会士-1989年在普林斯顿大学获得电子工程学学士学位-1996年在卡内基梅隆大学获得机器人学博士学位。1997年开始一直在西北大学担任教职-先后也在加州理工大学、卡内基梅隆大学、日本筑波大学和中国东北大学担任兼职教授。主要研究方向是机器人操作与移动的动力学、运动规划与控制-自组织多智能体系统-人机物理交互系统等。获得IEEE机器人学与自动化学会的早期职业奖-西北大学杰出教学奖-现为IEEE Robotics and Automation Letter高级编辑-ICRA主编。本书为他撰写的第3部教材。

朴钟宇(Frank C. Park)

IEEE会士-1985年在MIT获得电子工程学学士学位-1991年在哈佛大学获得应用数学博士学位。之后到加州大学尔湾分校担任教职。从1995年开始担任首尔国立大学机械与航空工程系教授。主要研究方向是机器人机构学、规划与控制、视觉与图像处理-以及与应用数学相关的领域。一直担任IEEE机器人学与自动化学会杰出讲师-纽约大学古兰特学院、佐治亚理工学院交互计算系、以及香港科技大学机器人研究所兼职教授。现为IEEE Transactions on Robotics主编-MOOC课程<机器人机构学与控制I和II>的开发者。

https://www.cambridge.org/hk/academic/subjects/computer-science/computer-graphics-image-processing-and-robotics/modern-robotics-mechanics-planning-and-control?format=HB&isbn=9781107156302

成为VIP会员查看完整内容
48
0

【导读】如今在越来越多的情况下,设备数据无法通过云端处理。尤其在工业机器人和自动驾驶汽车领域,它们需要高速处理,但当数据流增大而产生处理时延时会非常危险。针对日益多样化的边缘硬件,至今没有一个高效的功能模型设计的AI解决方案。最近来自麻省理工学院韩松等《移动设备深度学习:方法系统应用

深度神经网络(DNNs)在人工智能(AI)领域取得了前所未有的成功,包括计算机视觉、自然语言处理和语音识别。然而,其卓越的性能是以计算复杂度为代价的,这极大地阻碍了其在许多资源受限设备(如移动电话和物联网设备)中的应用。因此,为了实现大量的边缘人工智能应用,需要在保持DNNs的高精度的同时,提升效率瓶颈的方法和技术。本文综述了有效的深度学习方法、系统和应用。首先介绍了常用的模型压缩方法,包括剪枝法、因式分解法、量化法以及紧凑模型设计。为了减少这些手工解决方案的巨大设计成本,我们讨论了每个解决方案的AutoML框架,例如神经体系结构搜索(NAS)和自动修剪和量化。然后,我们将介绍有效的设备上训练,以支持基于移动设备上的本地数据的用户定制。除了一般的加速技术,我们还展示了几个特定于任务的加速,用于点云、视频和自然语言处理,利用它们的空间稀疏性和时间/令牌冗余。最后,为了支持所有这些算法的进步,我们从软件和硬件两个角度介绍了高效的深度学习系统设计。

https://www.zhuanzhi.ai/paper/cfebf5f04cbacdfaf6936db4f5d10021

引言

深度神经网络(DNNs)已经彻底改变了人工智能(AI)领域,并在计算机视觉[118,155,263]、自然语言处理[22,71,271,291]和语音识别[69,122,328]等领域取得了令人瞩目的成绩。它们可以应用于各种现实场景,如手机[131,217,329],自动驾驶汽车[5,20,59,194]和智能医院[116,183,338]。然而,它们的卓越性能是以高计算复杂度为代价的。例如,最先进的机器翻译模型[291]需要超过10G的乘法累加(multiply-and-accumulate, mac)来处理一个只有30个单词的句子;目前流行的LiDAR感知模型[56]需要每秒超过2000G mac(即10帧)。

如此高的计算成本远远超出了大多数移动设备的能力,从汽车到移动电话和物联网设备,因为它们的硬件资源受到外形因素、电池和散热的严格限制。然而,这些计算工作量不能委托给云服务器,因为它们对延迟(例如,自动驾驶)和/或隐私(例如,医疗保健)非常敏感[199,360]。因此,高效的深度学习是移动AI应用的一大需求。为了加快神经网络推理的速度,研究者们提出了多种模型压缩技术,包括剪枝[115,121,195]、低秩分解[149,332,352]和量化[62,114,133]。除了建立在现有的大型模型之上,研究人员还探索了直接从零开始设计高效的神经网络,包括MobileNets[125,250]、ShuffleNets[202,351]和SqueezeNets[202,351]。这些解决方案通常需要大量人力的努力,因为有一堆参数需要共同调整,以实现最佳性能:例如,修剪比和每一层的量化位宽。为此,有很多探索使用自动机器学习(AutoML)调节参数解决人类的设计过程的耗时,如神经结构搜索(NAS)[29、106、187、277、366),自动修剪(120、196、336)和自动量化(299、300、306)。然而,AutoML的好处并不是免费的,因为它会显著增加碳足迹: 进化Transformer [264]产生了5辆美国汽车的终生二氧化碳排放量(见图2)。为了实现绿色和可持续的人工智能,研究人员提出了高效搜索高效神经结构[25,296],该神经结构可以达到相同的精度水平,同时减少碳足迹的数量级。

深度学习可以引入较大的碳足迹:例如,进化Transformer[264]产生5辆汽车的终身碳排放量。因此,高效的深度学习对于绿色和可持续的人工智能至关重要。

除了推理之外,神经网络训练也可能非常昂贵,这阻碍了设备上的训练,从而阻碍了移动设备上的用户定制。为了解决这一问题,研究人员提出了各种高效的记忆训练算法,如梯度检查点[44]、激活剪枝[65]和低比特量化[356]。在大多数用例中,移动模型只需要对本地用户数据进行少量的微调,以提供专门化。因此,另一种研究试图提高迁移学习的效率[26,214]。最近,研究人员也引入了联邦学习[151],在不损害隐私的情况下聚合用户的训练模型。除了原则上可以应用于任何任务的一般加速外,在特定领域的加速方面已经有了广泛的研究。在本文中,我们将重点研究点云处理、视频理解和自然语言处理,因为它们广泛应用于移动应用,如自动驾驶和移动视觉/NLP。一方面,由于内存占用较大,它们的计算成本比传统2D视觉要高得多。另一方面,它们还通过利用和删除空间和时间冗余提供了独特的加速机会:空间冗余(点云)、时间冗余(视频)和标记级冗余(自然语言)。

然而,并不是所有的算法改进都能转化为硬件上可测量的加速。例如,通用推理库(如cuDNN[52])和硬件(如CPU、GPU)不支持稀疏和低位计算(由细粒度剪枝和量化引入)。最近在设计专业软件系统[43,72,137,138]和硬件系统[4,48,113,219,256,298,353]方面的努力逐渐弥合了这一差距。专门的软件系统探索神经网络内部和内部操作的并行性,并通过启发式规则甚至基于学习的方法优化计算图和内存调度。专门的硬件系统从硬件架构层面直接支持修剪网络的稀疏性和混合精度量化。软件和硬件系统的专业化开辟了一个与算法空间正交的新的设计空间,可以进一步利用这个空间来释放专业化未实现的潜力。因此,研究人员探索了多种协同设计解决方案,如自动分配不同平台上的计算资源用于神经网络模型[140,144,211,212],自动调整硬件架构[335,366],甚至联合搜索神经网络和加速器设计,包括处理元素之间的连接和循环调度[181]。

已有许多研究涉及模型压缩[50,54,68]、自动化机器学习[78,119,317]、高效硬件架构设计[272]和特定任务优化[283]。本文旨在涵盖更广泛的有效深度学习方法和应用:从手动到自动,从新的原语/操作设计到设计空间探索,从训练到推理,从算法到硬件,从通用到特定应用的优化。我们相信,这篇综述论文将为这一领域提供一个更全面的视角。本文其余部分的结构如下(图1): * 第二节讨论了各种模型压缩方法,包括剪枝、低秩分解、量化、知识精馏和紧凑模型设计。 * 第三节研究用于模型压缩和神经结构搜索的AutoML框架。 * 第四节描述了有效的设备上训练(一般/迁移学习技术)。 * 第五节研究点云、视频和语言的特定应用程序加速。 * 第六节介绍了深度学习的高效软件/硬件设计。

左:有效深度学习解决方案的范围(从推理到训练,从算法到软件/硬件系统,从一般到特定领域)。右:论文组织概述。

模型压缩

深度神经网络通常是过度参数化的。剪枝去除神经网络中的冗余元素,以减少模型大小和计算成本(图3)。

低秩分解利用矩阵/张量分解来降低深度神经网络中卷积层或全连通层的复杂性。利用低秩滤波器加速卷积的思想在信号处理领域已经研究了很长时间。 网络量化通过减少表示深度网络所需的每权重比特数来压缩网络(图4)。量化网络在硬件支持下可以有更快的推理速度。 知识蒸馏(KD)[23,123]可以将在大模型(教师)中学习到的“暗知识”转移到较小模型(学生)中,以提高较小模型的表现。小模型要么是一个压缩模型,要么是一个浅/窄模型。Bucilua等[23]通过训练学生网络匹配输出logit来达到目标;Hinton等人[123]在softmax输出中引入了temperature 的概念,并训练学生模拟教师模型的softmax输出的软化分布。KD算法虽然实现简单,但在各种图像分类任务中都有很好的效果。 除了压缩现有的深度神经网络,另一个被广泛采用的提高效率的方法是设计新的神经网络结构。一个CNN模型通常由卷积层、池化层和全连接层组成,其中大部分的计算来自卷积层。例如,在ResNet-50[118]中,超过99%的乘法累加操作(multiple -accumulate operations, MACs)来自卷积层。因此,设计高效的卷积层是构建高效CNN架构的核心。目前广泛使用的有效卷积层有1×1/点态卷积、群卷积和深度卷积三种。

自动压缩和神经结构搜索

上述模型压缩策略和高效的神经网络架构的成功依赖于手工制作的启发式,这需要领域专家探索较大的设计空间,在模型大小、延迟、能量和准确性之间进行权衡。这是耗时且次优的。在本节中,我们将描述处理此挑战的自动化方法。

上图报告了ImageNet上自动设计和人工设计CNN模型的总结结果。NAS节省了工程师的人工成本,并提供了比人工设计的CNN更好的模型。除了ImageNet分类,自动设计的CNN模型在目标检测[46,91,278,367]和语义分割[40,184]方面也优于手动设计的CNN模型。

高效设备学习

在现实世界的边缘人工智能应用中,智能边缘设备每天通过传感器收集新数据,同时被期望在不牺牲隐私的情况下提供高质量的定制服务。这些都对高效的人工智能技术提出了新的挑战,这些技术不仅可以运行推断,而且还可以根据新收集的数据不断调整模型(即设备上学习)。虽然设备学习可以实现许多有吸引力的应用,但这是一个极具挑战性的问题。首先,边缘设备是内存受限的。例如,一个树莓派1模型a只有256MB的内存,这足以进行推理,但仍然不足以进行训练(图9),即使使用轻量级的神经网络(MobileNetV2[250])。此外,内存被各种设备上的应用程序(例如,其他深度学习模型)和操作系统共享。单个应用程序可能只分配了总内存的一小部分,这使得这个挑战更加关键。第二,边缘设备是能量受限的。访问DRAM比访问片内SRAM多消耗两个数量级的能量。激活的大内存占用不能适应有限的片内SRAM,因此它必须访问DRAM。例如,在批处理大小为16的情况下,MobileNetV2的训练内存接近1GB,这远远大于AMD EPYC CPU的SRAM大小(图9),更不用说低端平台了。如果训练存储器能与片上SRAM相匹配,将大大提高速度和能源效率。

成为VIP会员查看完整内容
59
0

如果你知道如何编程,你就准备好处理贝叶斯统计了。通过这本书,您将学习如何使用Python代码而不是数学公式解决统计问题,使用离散的概率分布而不是连续的数学。你把数学弄得一清二楚,贝叶斯的基本原理将变得更清晰,你将开始把这些技术应用到现实世界的问题上。

贝叶斯统计方法正变得越来越普遍和重要,但是并没有很多资源可以帮助初学者。基于作者Allen B. Downey教授的本科课程,这本书的计算方法帮助你获得一个坚实的开始。

  • 使用你的编程技能来学习和理解贝叶斯统计
  • 处理涉及估计、预测、决策分析、证据和贝叶斯假设检验的问题
  • 从简单的例子开始,使用硬币、骰子和一碗饼干
  • 学习解决现实问题的计算方法

成为VIP会员查看完整内容
49
0

继AlphaGO系列的巨大成功之后,2019年是一个蓬勃发展的一年,见证了多智能体强化学习(MARL)技术的重大进展。MARL对应于多智能体系统中多个智能体同时学习的学习问题。这是一个具有悠久历史的跨学科领域,包括博弈论、机器学习、随机控制、心理学和优化。尽管MARL在解决现实世界的游戏方面取得了相当大的经验上的成功,但文献中缺乏一个完整的概述来阐述现代MARL方法的博弈理论基础,并总结最近的进展。事实上,现有的大多数综述都是过时的,没有完全涵盖2010年以来的最新发展。在这项工作中,我们提供了一个关于MARL的专著,包括基本原理和研究前沿的最新发展。本综述分为两部分。从§1到§4,我们介绍了MARL的完备的基础知识,包括问题公式、基本解决方案和现有的挑战。具体地说,我们通过两个具有代表性的框架,即随机博弈和广义博弈,以及可以处理的不同博弈变体,来呈现MARL公式。这一部分的目的是使读者,即使是那些相关背景很少的人,掌握MARL研究的关键思想。从§5到§9,我们概述了MARL算法的最新发展。从MARL方法的新分类开始,我们对以前的研究论文进行了调研。在后面的章节中,我们将重点介绍MARL研究中的几个现代主题,包括Q函数分解、多智能体软学习、网络化多智能体MDP、随机潜在博弈、零和连续博弈、在线MDP、回合制随机博弈、策略空间响应oracle、一般和博弈中的近似方法、以及具有无限个体的游戏中的平均场类型学习。在每个主题中,我们都选择了最基础和最先进的算法。我们调研的目的是从博弈理论的角度对当前最先进的MARL技术提供一个完备的评估。我们希望这项工作能够为即将进入这个快速发展的领域的新研究人员和现有的领域专家提供一个跳板,他们希望获得一个全景视图,并根据最近的进展确定新的方向。

https://openreview.net/forum?id=ORgCYmo0os

引言

机器学习可以看作是将数据转换为知识的过程(Shalev-Shwartz & Ben-David, 2014)。学习算法的输入是训练数据(例如,含有猫的图像),输出是一些知识(例如,关于如何在图像中检测猫的规则)。这些知识通常表示为能够执行某些任务的计算机(例如,自动猫探测器)。在过去的十年中,一种特殊的机器学习技术——深度学习(LeCun et al., 2015)取得了长足的进步。深度学习的一个重要体现的是不同种类的深层神经网络(DNNs)(Schmidhuber, 2015),可以找到分离表示(Bengio, 2009)在高维数据, 这使得软件训练本身执行新任务而不是仅仅依赖于程序员手工设计规则。通过使用DNNs,计算机视觉(Krizhevsky et al., 2012)和自然语言处理(Brown et al., 2020; Devlin et al., 2018)是取得了显著的进展。

现代人工智能应用正在从纯粹的特征识别(例如,在图像中检测一只猫)转变为决策(安全通过交通十字路口),其中不可避免地会发生多个智能体之间的交互。因此,每个智能体都必须采取战略性的行为。此外,这个问题变得更具挑战性,因为当前的决定会影响未来的结果。

除了从现有数据进行特征识别,现代人工智能应用通常需要计算机程序根据所获得的知识做出决策(见图1)。为了说明决策的关键组成部分,让我们考虑现实世界中控制汽车安全通过十字路口的例子。在每一个时间步,机器人汽车都可以通过转向、加速和制动来移动。目标是安全驶出十字路口并到达目的地(可以选择直走或左转/右转入另一条车道)。因此,除了能够检测对象,如交通信号灯、车道标记,和其他汽车(通过将数据转化为知识),我们的目标是找到一个能控制汽车的方向盘政策做出一系列演习达到目标(决策基于获得的知识)。在这样的决策环境中,还会出现两个额外的挑战:

  1. 首先,在决策过程中,在每一个时间步,机器人小车不仅要考虑当前行动的即时价值,还要考虑当前行动在未来的后果。例如,在开车通过一个十字路口的情况下,如果策略选择在过程的开始转向一个“安全”的方向,这将是有害的,如果它最终会导致随后的车祸。

  2. 其次,为了正确安全地做出每一个决定,汽车还必须考虑到其他汽车的行为,并采取相应的行动。例如,人类驾驶员通常会提前预测其他车辆的移动,然后采取战略性的应对措施(比如给迎面驶来的车辆让路,或者加速驶入另一条车道)。

对适应性决策框架的需求,以及处理多个交互学习者的复杂性,导致了多智能体学习的发展。Multi-agent RL解决的是在一个共享的随机环境中运行多个智能agent的顺序决策问题,每个智能agent的目标是通过与环境和其他agent的交互来最大化其长期回报。多智能体强化学习是在多智能体系统和资源学习的基础上建立起来的。在下一节中,我们将简要概述(单agent) RL及其近几十年的研究进展。

强化学习发展简述

**RL是机器学习的一个子领域,其中代理学习如何在与环境的交互过程中基于试错过程的最佳行为。与以带标签的数据作为输入的监督学习(例如带有猫标签的图像)不同,RL是面向目标的:它构建了一个学习模型,学习通过试错改进来实现最优的长期目标,学习者没有带标签的数据来获取知识。“强化”一词指的是学习机制,因为导致满意结果的行动在学习者的行为集合中得到了强化。

历史上,RL机制最初是在研究猫在谜盒中的行为的基础上发展起来的(Thorndike, 1898)。Minsky(1954)在他的博士论文中首次提出了RL的计算模型,并将他得到的模拟机器命名为随机神经模拟强化计算器。几年后,他首先提出了动态规划(Bellman, 1952)和RL (Minsky, 1961)之间的联系。在1972年,Klopf(1972)将试错学习过程与心理学中发现的时间差异(TD)学习结合起来。在为更大的系统扩展RL时,TD学习很快成为不可或缺的。Watkins & Dayan(1992)在动态规划和TD学习的基础上,使用马尔可夫决策过程(MDP)为今天的RL奠定了基础,并提出了著名的Q-learning方法作为求解器。作为一种动态规划方法,原来的Q-learning过程继承了Bellman (Bellman, 1952)的“维数灾难”(curse of dimensional维数灾难),当状态变量数量较大时,极大地限制了它的应用。为了克服这一瓶颈,Bertsekas & Tsitsiklis(1996)提出了基于神经网络的近似动态规划方法。最近,来自DeepMind的Mnih等人(2015)通过引入深度q -学习(DQN)架构取得了重大突破,该架构利用了DNN对近似动态规划方法的表示能力。DQN已经在49款Atari游戏中展示了人类水平的表现。从那时起,深度RL技术在机器学习/人工智能中变得普遍,并引起了研究社区的大量关注。

RL源于对动物行为的理解,动物使用试错法来强化有益的行为,然后更频繁地执行这些行为。在其发展过程中,计算RL整合了诸如最佳控制理论和其他心理学发现等思想,这些思想有助于模仿人类做出决策的方式,从而使决策任务的长期收益最大化。因此,RL方法自然可以用来训练计算机程序(代理),使其在某些任务上达到与人类相当的性能水平。RL方法对人类玩家的最早成功可以追溯到西洋双陆棋(Tesauro, 1995)。最近,应用RL解决顺序决策问题的进展标志着AlphaGo系列的显著成功(Silver et al., 2016;2017;2018年),一名自学的RL智能体,击败了围棋游戏的顶级专业玩家,这款游戏的搜索空间(10761种可能的游戏)甚至比宇宙中的原子数量还要多。

AlphaGo系列的成功标志着单agent决策过程的成熟。2019年是MARL技术蓬勃发展的一年;在解决极具挑战性的多人实战策略电子游戏和多人不完全信息扑克游戏方面取得了显著进展。

事实上,大多数成功的RL应用,如游戏GO2、机器人控制(Kober et al., 2013)和自动驾驶(Shalev-Shwartz et al., 2016),自然涉及多个人工智能智能体的参与,这探索了MARL领域。正如我们所预期的,单agent RL方法取得的重大进展——以2016年GO的成功为标志——预示着未来几年多agent RL技术的突破

强化学习多智能体兴盛

2019年是MARL发展的繁荣之年,在过去人们认为不可能通过人工智能解决的极具挑战性的多智能体任务上取得了一系列突破。尽管如此,MARL领域取得的进展,尽管令人瞩目,但在某种程度上已经被AlphaGo之前的成功所掩盖(Chalmers, 2020)。AlphaGo系列有可能(Silver et al., 2016;2017;2018年)已经在很大程度上满足了人们对RL方法有效性的期望,因此对该领域的进一步发展缺乏兴趣。MARL的进展在学术界引起的反响相对温和。在本节中,我们将重点介绍几项工作,我们认为这些工作非常重要,并且可能深刻影响MARL技术的未来发展。

单代理MDP(左)和多代理MDP(右)示意图

MARL的一个热门测试平台是星际争霸2 (Vinyals等人,2017年),这是一款拥有自己职业联赛的多人即时策略电脑游戏。在这个博弈中,每个参与人关于博弈状态的信息都是有限的,而且搜索空间的维度比围棋大了几个数量级(每一步有1026种可能的选择)。《星际争霸2》中有效的RL方法的设计曾一度被认为是人工智能的一个长期挑战(Vinyals等人,2017)。然而,AlphaStar在2019年实现了突破(Vinyals et al., 2019b),它已经展示了特级大师水平的技能,排名超过人类玩家的99.8%。

MARL的另一个著名的基于视频游戏的测试平台是Dota2,这是一个由两支队伍玩的零和游戏,每支队伍由5名玩家组成。从每个agent的角度来看,除了不完全信息的难度(类似于星际争霸2),Dota2更具挑战性,在这个意义上,团队成员之间的合作和与对手的竞争都必须考虑。OpenAI Five人工智能系统(Pachocki et al., 2018)在一场公开的电子竞技比赛中击败了世界冠军,在Dota2中展现了超人的表现。除了星际争霸2和Dota2, Jaderberg等人(2019)和Baker等人(2019a)分别在抓旗和捉迷藏游戏中表现出了人类水平的表现。虽然游戏本身不如星际争霸2或Dota2复杂,但对于人工智能agent来说,掌握战术仍然不是一件容易的事情,所以agent令人印象深刻的表现再次证明了MARL的有效性。有趣的是,两位作者都报告了由他们提出的MARL方法引发的紧急行为,人类可以理解,并以物理理论为基础。

MARL最后一个值得一提的成就是它在扑克游戏《Texas hold ' em》中的应用,这是一种多玩家广泛形式的游戏,玩家可以获得不完整的信息。Heads-up(即两个玩家)无限持有的游戏中有超过6 × 10161种信息状态。直到最近,游戏中才出现了突破性的成就,这多亏了MARL。两个独立的程序,DeepStack (Moravčík等人,2017)和Libratus (Brown & Sandholm, 2018),能够击败专业的人类玩家。最近,Libratus被升级为Pluribus (Brown & Sandholm, 2019年),并表现出非凡的表现,在无限制设置中赢得了5名精英人类专业人士的100多万美元。为了更深入地理解RL和MARL,需要对概念进行数学表示法和解构。在下一节中,我们将提供这些概念的数学公式,从单代理RL开始,逐步发展到多代理RL方法。

单智能体强化学习

**单agent RL通过试错,RL agent试图找到最优策略,使其长期回报最大化。该过程由马尔可夫决策过程制定。

多智能体强化学习

多智能体RL在多智能体场景中,很像在单智能体场景中,每个智能体仍然试图通过试错过程来解决顺序决策问题。不同之处在于,环境状态的演化以及每个agent收到的奖励函数现在都是由所有agent的联合行动决定的(见图3)。因此,agent不仅需要考虑环境,还需要与其他学习agent进行交互。一个涉及多个主体的决策过程通常通过随机对策(Shapley, 1953)来建模,也被称为马尔可夫对策(Littman, 1994)。

与单agent RL相比,多agent RL是一个更适合现实世界AI应用的通用框架。然而,由于多个agent同时学习的存在,除了单agent RL中已经存在的方法外,MARL方法提出了更多的理论挑战。与通常有两个代理的经典MARL设置相比,解决多代理RL问题更具挑战性。事实上,1 组合复杂性,2 多维学习目标和3 非平稳性问题都导致大多数MARL算法能够解决只有4个参与者的博弈,特别是两方零和博弈。

成为VIP会员查看完整内容
51
0

最近,高度成功但不透明的机器学习模型激增,这引发了对可解释性的迫切需求。该毕业论文通过新颖的定义、方法和科学综述解决了可解释性问题,确保可解释性在现实问题的背景下是有用的。我们首先定义什么是可解释性,以及围绕它的一些需求,强调语境的作用被低估。然后,我们深入研究解释/改进神经网络模型的新方法,专注于如何最好地评分、使用和提取交互。接下来,我们将从神经网络转向相对简单的基于规则的模型,研究如何在维护极其简洁的模型的同时提高预测性能。最后,我们总结了促进可解释数据科学的开源软件和数据的工作。在每个案例中,我们深入到一个特定的背景,这激发了所提出的方法论,从宇宙学到细胞生物学到医学。所有代码都可以在github.com/csinva上找到。

本论文工作

机器学习模型最近因其准确预测各种复杂现象的能力而受到相当大的关注。然而,人们越来越认识到,除了预测之外,这些模型还能够产生关于数据中包含的领域关系的有用信息(即解释)。更准确地说,可解释机器学习可以定义为“从机器学习模型中提取有关数据中包含的关系或该模型学习到的关系的相关知识”186。解释有其自身的用途,如医学[153]、科学[13,278]和决策[37],以及审计预测本身,以应对监管压力[97]和公平[74]等问题。在这些领域中,解释已被证明有助于评估学习模型,提供修复模型的信息(如果需要),并与领域专家[47]建立信任。然而,随着可解释技术的爆炸式增长[186,193,291,273,90,11,300,100],可解释方法在实践中的使用引起了相当大的关注[4]。此外,我们还不清楚如何在现实环境中评估可解释技术,以促进我们对特定问题的理解。

概述数据科学生命周期的不同阶段,其中可解释性很重要。 为此,我们首先回顾了2019年PNAS论文[186](与Jamie Murdoch、Reza Abbasi-Asl、Karl Kumbier和Bin Yu合著)之后对可解释性的一些要求。然后我们讨论了一些批判性评价解释的方法。然后,我们阐述了新的方法,以解决机器学习模型的可解释性的差距。至关重要的是,这种方法是在现实世界问题的背景下与领域专家一起开发和评估的。这项工作跨越了不同的层次,试图从黑盒模型中提取洞察力,并尽可能用更简单的模型替换它们。图1.1显示了本文的概述,旨在解决严格基于现实问题的可解释性问题。第一部分从解释神经网络事后解释的不同方法开始。这些方法使理解神经网络中不同特征之间的相互作用成为可能,并以宇宙学参数预测为背景(第5章)。第二部分接着展示了如何使用这些解释方法直接改善神经网络。要么通过正则化(第6章),要么通过蒸馏(第7章)。这在分子伙伴预测(第8章)的背景下得到了展示。接下来,第三部分介绍了用于构建高度预测的基于规则的模型的改进方法,这些模型非常简洁,基于临床决策规则开发问题。最后,第四部分介绍了新的开源软件和不可解读建模数据。

第一部分: 事后神经网络解释

之前的大量工作集中于为单个特征分配重要性,如图像中的像素或文档中的单词。对于不同的体系结构,有几种方法产生了特征级的重要性。它们可以分为基于梯度的[255,264,240,18]、基于分解的[185,242,17]和其他的[59,83,218,303],方法之间有许多相似之处[10,159]。虽然已经开发了许多方法来将重要性归因于模型输入的单个特征,但用于理解关键特征之间的交互作用的工作相对较少。这些交互是解释现代深度学习模型的关键部分,因为它们使结构化数据具有强大的预测性能。第一部分介绍了最近开发的两种方法,用于提取(已经训练过的)DNN已经学习到的特征之间的交互。第3章介绍了聚集上下文分解(ACD),它通过贪婪地打分和组合组级重要性来生成层次重要性。这使得简单有效地可视化哪些特性对单个预测是重要的。第4章介绍了转换重要性(TRIM),它允许计算模型输入转换交互的分数。这两种方法都可以更好地理解宇宙参数预测(第5章),其中的可解释性允许人们在将模型应用于真实天文数据时相信模型的预测。

第二部分: 利用解释改进神经网络

在第一部分中介绍了解释交互和转换的方法之后,第二部分介绍了使用这些属性直接改进模型的两种方法。在引入和评估解释方法时,这是一个重要且经常被忽略的步骤,它有助于用直接的用例来建立解释的效用。

第三部分: 基于规则的可解释建模

本节将完全脱离深度学习,而将重点放在基于规则的建模上。只要有可能,首先拟合一个简单的模型比拟合一个复杂的模型,然后用事后的解释来检查它更可取。一个足够简单的基于规则的模型可以被完全理解,并且很容易用手模拟、记忆和推理反事实。

第四部分:开源软件与数据

在数据科学和机器学习领域,好的开源软件和数据存储库与好的想法一样有用(如果不是更有用的话)。这一部分涵盖了上述研究中产生的两个python包,以及一个为开源建模而策划的数据存储库。

成为VIP会员查看完整内容
48
0

专家系统是最早的人工智能系统。在早期的智能系统研究中,人们希望用专家系统 来模拟和代替某些领域的人类专家。通过将领域知识组织成形式化的知识库模型,专家 系统能够利用基本的逻辑推导规则,对知识库中的知识进行推理,形成新的知识,从而 模拟人类专家推理和决策的过程。专家系统的推理机制具有很好的可解释性,在很长段时间里是智能系统的主流形式,给后续的智能模型和系统带来了很多启示。

但是,专家系统并不是基于统计理论从经验数据中进行学习的机器学习方法。实际 上,在构建专家系统的过程中,提取知识是需要工程人员和领域专家人工介入的,知识 库则是人工制定的规则系统。因此,专家系统可以说是种“人工”学习方法,恰好处 于机器学习的对立面。然而,从专家系统中我们可以看到人们如何从人工制定的规则系 统开始,转向了基于统计的机器学习方法。

成为VIP会员查看完整内容
50
0

新版变化之处

这一版反映了自 2010 年上一版以来人工智能的变化:

  • 由于数据、计算资源和新算法的可用性增加,我们更关注机器学习而不是手工制作的知识工程。

  • 深度学习、概率编程和多智能体系统得到了扩展,每一个都有自己的章节。

  • 对自然语言理解、机器人和计算机视觉的覆盖面进行了修订,以反映深度学习的影响。

  • 机器人章节现在包括与人类交互的机器人以及强化学习在机器人技术中的应用。

  • 之前,我们将 AI 的目标定义为创建试图最大化预期效用的系统,其中特定的效用信息——目标——由系统的人类设计者提供。现在我们不再假设目标是固定的并且由 AI 系统知道;相反,系统可能不确定它所代表的人类的真正目标。它必须学会最大化什么,并且即使在目标不确定的情况下也必须适当地发挥作用。

  • 我们增加了对人工智能对社会影响的报道,包括道德、公平、信任和安全等重要问题。

  • 我们已将每章末尾的练习移至在线站点。这使我们能够不断添加、更新和改进练习,以满足教师的需求,并反映该领域和人工智能相关软件工具的进步。

  • 总的来说,书中大约 25% 的材料是全新的。剩下的 75% 已在很大程度上被重写,以呈现该领域更统一的图景。本版中 22% 的引用来自 2010 年之后发表的作品。

新版概述

主要的统一主题是智能体概念。我们将人工智能定义为研究从环境中接收感知并执行行动的智能体。每个这样的智能体实现了一个将感知序列映射到行动的功能,我们涵盖了表示这些功能的不同方式,如反应式智能体、实时计划者、决策理论系统和深度学习系统。我们强调学习既是有能力的系统的构建方法,也是将设计者的触角延伸到未知环境的一种方式。我们不把机器人技术和视觉当作独立的问题,而是当作为实现目标而发生的问题。我们强调任务环境在决定适当的智能体设计中的重要性。

我们的主要目的是传达在过去七十年的人工智能研究和过去两千年的相关工作中出现的想法。我们试图避免在表述这些思想时过分拘泥于形式,同时保留精确性。我们加入了数学公式和伪代码算法,以使关键思想具体化;数学概念和符号在附录A中描述,我们的伪代码在附录B中描述。

本书主要用于本科课程或课程序列。这本书有 28 章,每章都需要大约一周的讲课时间,因此通读整本书需要两个学期的时间。一个学期的课程可以使用选定的章节来满足教师和学生的兴趣。这本书也可以用于研究生课程(也许加上参考书目注释中建议的一些主要来源),或用于自学或作为参考。

在全书中,重要的内容都在页边用三角形的图标标出。每当定义一个新术语时,也会在页边注明。该术语的后续重要用法以黑体字显示,但不在页边。我们包括一个全面的索引和一个广泛的参考书目。

唯一的先决条件是熟悉二年级计算机科学的基本概念(算法、数据结构、复杂性)、微积分和线性代数。

网上资源

在线资源可通过 pearsonhighered.com/cs-resources 或本书的网站 aima.cs.berkeley.edu 获得。在那里你会发现:

  • 练习,编程项目,研究项目。这些练习不再出现在每一章的末尾;它们只在网上出现。在书中,我们用 "Exercise 6.NARY "这样的名字来指代在线练习。

  • 网站上的说明允许你按名称或按主题找到练习。书中算法在Python、Java和其他编程语言中的实现(目前托管在github.com/aimacode)。

  • 超过1400所使用该书的学校名单,其中许多学校有在线课程材料和教学大纲的链接。

  • 为学生和教员提供的补充材料和链接。关于如何报告书中的错误的说明,如果可能存在一些错误的话。

作者

  • STUART RUSSELL:1962年出生于英国朴茨茅斯。他于1982年以一级荣誉获得牛津大学物理学学士学位,并于1986年获得斯坦福大学计算机科学博士学位。然后他加入了加州大学伯克利分校的教师队伍,在那里他是计算机科学的教授和前主席,人类兼容人工智能中心的主任,以及史密斯-扎德工程讲座的持有人。1990年,他获得了美国国家科学基金会的总统青年研究者奖,1995年,他获得了计算机与思想奖。他是美国人工智能协会、计算机械协会和美国科学促进会的会员,牛津大学瓦德姆学院的荣誉会员,以及安德鲁-卡内基会员。2012年至2014年,他在巴黎担任布莱斯-帕斯卡尔主席。他已经发表了300多篇关于人工智能广泛主题的论文。他的其他书籍包括《知识在类比和归纳中的使用》、《做正确的事:有限理性研究》(与Eric Wefald合作)和《人类兼容》。人工智能和控制问题。

  • PETER NORVIG:目前是谷歌公司的研究总监,之前是负责核心网络搜索算法的总监。他与人合作教授了一个在线人工智能课程,注册了16万名学生,帮助启动了当前一轮大规模开放的在线课程。他曾是美国宇航局艾姆斯研究中心计算科学部的负责人,负责监督人工智能和机器人的研究和开发。他获得了布朗大学的应用数学学士学位和伯克利大学的计算机科学博士学位。他曾在南加州大学担任教授,并在伯克利和斯坦福大学担任教员。他是美国人工智能协会、计算机械协会、美国艺术与科学学院和加州科学院的院士。他的其他书籍有《人工智能编程范式》。通用语言的案例研究,Verbmobil: 面对面对话的翻译系统,以及UNIX的智能帮助系统。

两位作者在2016年共享了首届AAAI/EAAI杰出教育家奖。

成为VIP会员查看完整内容
47
0

工业人工智能(AI)是人工智能在工业应用中的应用,是第四次工业革命中价值创造的主要贡献者。人工智能正被嵌入到广泛的应用程序中,帮助组织实现重大利益,并使它们能够转变向市场传递价值的方式。本文档为基于人工智能的工业物联网系统的开发、训练、文档编制、通信、集成、部署和操作提供指导和帮助。它针对来自It和操作技术(OT)的决策者,来自多个学科的业务和技术人员,包括业务决策者、产品经理、系统工程师、用例设计师、系统架构师、组件架构师、开发人员、集成商和系统操作员。

该文档是围绕IIC的工业互联网参考体系结构中的体系结构观点构建的,即业务、使用、功能和实现观点。该文件讨论了推动人工智能采用的商业、商业和价值创造方面的考虑。它还详细阐述了人工智能的使用引起的担忧,工业中的用例,以及与之相关的伦理、隐私、偏见、安全、劳工影响和社会问题。在技术方面,该文档描述了与AI相关的架构、功能和数据考虑因素,并讨论了各种实现考虑因素,如性能、可靠性、数据属性和安全性。人工智能的应用预计将在该行业加速。考虑到快速增长的计算能力、更广泛的可用于训练的数据以及日益复杂的算法,人工智能技术将继续发展。当前的IT标准和最佳实践必须不断发展,以解决人工智能本身的独特特点,以及与工业物联网系统的安全性、可靠性和弹性相关的具体考虑。此外,组织在人工智能方面的日益成熟将帮助他们认识到它的利远大于弊。人工智能标准生态系统也将继续发展,例如ISO/IEC JTC 1/SC42正在进行的标准工作,为JTC 1、IEC和ISO委员会制定人工智能标准提供指导。基于这些趋势,毫无疑问,人工智能将继续推动最先进的技术和功能的可能性,因此,被认为是合理的事情也将不断发展。对技术的态度和企业对其使用的期望也将继续发展。在未来,我们可以预期人工智能技术的使用将成为规范,而不是例外,鉴于这种技术的社会效益,“不使用人工智能”最终可能成为不负责任的做法。

成为VIP会员查看完整内容
50
0

这篇文章是关于实践中的强化学习领域的温和讨论,关于机会和挑战,涉及广泛的主题,有观点,没有技术细节。本文基于历史和最近的研究论文、调查、教程、谈话、博客、书籍、(小组)讨论和研讨会/会议。不同的读者群体,如研究人员、工程师、学生、经理、投资者、官员和想要更多地了解该领域的人,可能会发现这篇文章很有趣。在本文中,我们首先简要介绍了强化学习(RL),以及它与深度学习、机器学习和人工智能的关系。然后,我们讨论了RL的机会,特别是产品和服务、游戏、博弈、推荐系统、机器人、交通、金融和经济、医疗保健、教育、组合优化、计算机系统和科学与工程。然后我们讨论挑战,特别是1)基础 ,2)表示,3)奖励,4)勘探、5)模型,模拟、规划、和基准, 6)离线策略/离线学习,7)学会学习又名元学习,8)explainability和可解释性,9)限制,10)软件开发和部署,11)业务视角,还有更多的挑战。我们以讨论结束,试图回答:“为什么RL还没有在实践中被广泛采用?”和“在线学习什么时候有用?”

成为VIP会员查看完整内容
46
0

机器之心报道

编辑:蛋酱

这本书系统介绍了不确定性情况下的决策算法,作者已将书籍内容重新修订,发布了 700 页的最新版。 许多重要问题涉及到不确定条件下的决策,比如飞机碰撞避免、野火管理和灾害响应。因此,在设计自动决策系统或决策支持系统时,必须考虑到各种不确定性来源,同时仔细平衡多个目标。 在《决策算法(Algorithms for Decision Making)》这本书中,斯坦福大学的 Mykel J. Kochenderfer 等人从计算的角度讨论了这些挑战,旨在提供决策模型和计算方法背后的理论,介绍了不确定情况下决策问题的实例应用,概述了可能的计算方法。同时总结了各学科如何促进对明智决策的理解,并强调了潜在的社会影响领域。

今年,作者将书籍内容进一步修订,发布了 2022 年最新版。

书籍地址:https://algorithmsbook.com/ 作者介绍

这本书由 Mykel J. Kochenderfer、Tim A. Wheeler、Kyle H. Wray 三人合著。 Mykel Kochenderfer 是斯坦福大学航空航天系副教授、计算机科学系副教授,也是斯坦福智能系统实验室(SISL)负责人,从事高级算法和分析方法研究,以设计鲁棒性的决策系统。其研究兴趣还包括空中交通管制、无人驾驶飞机、自动驾驶系统等。

在 2013 年来到斯坦福大学任职之前,他曾在麻省理工学院林肯实验室工作。曾出版过《算法优化》(麻省理工学院出版社,2019 年)和《不确定性下的决策制定:理论与应用》(麻省理工学院出版社,2015 年)等教材。 其他两位作者分别为 Tim A. Wheeler(Mykel Kochenderfer 的学生)和 Kyle H. Wray。 书籍目录

成为VIP会员查看完整内容
48
0

摘要

多智能体强化学习 (RL) 解决了每个智能体应该如何在多个智能体同时学习的随机环境中表现最佳的问题。它是一个历史悠久的跨学科领域,位于心理学、控制理论、博弈论、强化学习和深度学习的联合领域。继 AlphaGO 系列在单智能体 RL 中取得显著成功之后,2019 年是蓬勃发展的一年,见证了多智能体 RL 技术的重大进步;在开发许多具有挑战性的任务(尤其是多人视频游戏)上,胜过人类的人工智能已经取得了令人瞩目的突破。尽管如此,多智能体 RL 技术的主要挑战之一仍是可扩展性。设计高效的学习算法来解决包括远多于两个智能体 (N2) 的任务仍然不是一件容易的事,我将其命名为大量智能体强化学习 (many-agent reinforcement learning,MARL) 问题。

在本论文中,我从四个方面对解决MARL问题做出了贡献。首先,我从博弈论的角度提供了多智能体 RL 技术的独立概述。该概述填补了大多数现有工作要么未能涵盖自 2010 年以来的最新进展,要么没有充分关注博弈论的研究空白,我认为博弈论是解决多智能体学习问题的基石。其次,我在多智能体系统中开发了一种易于处理的策略评估算法——的关键优势在于它可以在多人广义和博弈中轻松计算 α-Rank 的解概念,而无需存储整个收益矩阵。这与经典的解概念形成对比,例如纳什均衡,即使在两人的情况下也被认为是 PPAD 难的。让我们第一次能够实际进行大规模的多智能体评估。第三,我在多智能体系统中引入了一种可扩展的策略学习算法——平均场 MARL。平均场 MARL 方法利用了物理学中的平均场近似,它是第一个试图打破 MARL 任务维数诅咒的可证明收敛的算法。使用所提出的算法,我给出了通过 MARL 方法解决 Ising 模型和多智能体战斗博弈的第一个结果。第四,我研究了开放式元博弈(即策略空间中的博弈)中的多智能体学习问题。具体来说,我专注于对元博弈中的行为多样性进行建模,并开发保证在训练期间扩大多样性的算法。所提出的基于行列式点过程的度量,是多样性的第一个数学严格定义。重要的是,多样性感知学习算法在可利用性方面大大击败了现有的最先进的博弈求解器。

除了算法开发之外,我还贡献了 MARL 技术的两个实际应用。具体来说,我展示了MARL的巨大应用潜力, 研究了自然界中涌现的人口动态,并为自动驾驶中的多样化和现实交互建模。这两个应用程序都体现了 MARL 技术可以在纯视频游戏之外的真实物理世界中产生巨大影响的前景。

MARL的重大挑战

与单智能体 RL 相比,多智能体 RL 是一个通用框架,可以更好地匹配现实世界 AI 应用的广泛范围。然而,由于存在同时学习的多个智能体,除了单智能体 RL 中已经存在的那些之外,MARL 方法还提出了更多的理论挑战。与通常有两个智能体的经典 MARL 环境相比,解决大量智能体 RL 问题更具挑战性。事实上,1 组合复杂性、2 多维学习目标、3 非平稳性问题,都导致大多数 MARL 算法能够解决只有两个玩家的博弈,特别是两个玩家的零和博弈。

本文的结构及贡献

本论文主要围绕大量智能体强化学习的研究课题。我为这个主题贡献的方法位于图 1.8 中列出的三个研究领域:它们是博弈论,它提供了现实且易于处理的解决方案概念来描述大量智能体系统的学习结果; RL 算法,提供可证明的收敛学习算法,可以在顺序决策过程中达到稳定和合理的均衡;最后是深度学习技术,它提供了学习算法表达函数逼近器。

图 1.8:本论文的研究范围包括三个支柱。深度学习是学习过程中强大的函数逼近工具。博弈论提供了一种描述学习成果的有效方法。 RL 提供了一种有效的方法来描述多智能体系统中智能体的激励。

图 1.9:本文后续章节的结构,与列出的三个挑战(1 组合复杂性、2 多维学习目标、3 非平稳性)相关,每章都试图解决这些挑战。

以下各章的结构和贡献如下(另请参见图 1.9):

  • 第 2 章:由于 MARL 的可扩展性问题深深植根于其博弈论基础,在本章中,我将首先概述现代 MARL 方法的博弈论方面,以及最近的进展。我相信这个概述是对社区的重要贡献,因为大多数现有调查要么不关注博弈论,要么就遗漏了自 2010 年以来的大多数近期文献而过时。第 1 章和第 2 章构成了 MARL 的独立专著。该专著的目标是从博弈论的角度对当前最先进的 MARL 技术进行专门评估。我希望这项工作能够为即将进入这个快速发展领域的新研究人员和想要获得全景,并根据最新进展确定新方向的现有领域专家提供基础。

  • 第 3 章:本章提供了 MARL 技术在理解 AI 智能体的新兴种群动态方面的应用。本章的目标是在我介绍方法学发展之前作为开篇,展示 MARL 方法的巨大潜力。具体来说,在这项工作中,我将 RL 智能体放入模拟的捕食者-猎物世界中,并验证自然界中开发的原理是否可用于理解人工创造的智能种群,反之亦然。这项工作的主要贡献在于,它启发了许多人口生物学家和计算生物学家,在对宏观生物学研究中的自利智能体进行建模时,为他们提供了一种基于 MARL 的新方法。

  • 第 4 章:本章介绍了一种新的大量智能体系统策略评估方法:是 α-rank 的随机变体,是一种新颖的解概念,在多人广义和博弈中具有多项式时间解。的一个主要好处是,人们现在可以轻松地评估大型多智能体系统(即多人广义和博弈),例如,具有联合策略配置文件的多智能体系统只需一台机器;这与计算纳什均衡相反,即使在两人的情况下,这也是众所周知的 PPAD-hard。

  • 第 5 章:在本章中,我将重点解决大量智能体系统中策略学习的核心问题。具体来说,我提出了平均场 MARL (MFMARL) 方法,该方法利用了物理学中平均场近似的经典思想。 MF-MARL 通过仅​​考虑总体的平均效应,有效地将大量智能体学习问题转化为双智能体问题。使用 MF-MARL 方法,可以有效地训练数百万智能体来解决大型合作博弈。我测试了 MF-MARL 算法来解决 Ising 模型,这是一个众所周知的物理学难题,因为它的组合性质,并得出了第一个基于 MARL 的 Ising 模型解。总的来说,本章的主要贡献是提供了第一个可证明收敛的可扩展 MARL 算法,并证明了它在远不止两个智能体的场景中的有效性。

  • 第 6 章:本章研究开放式元博弈(即策略级别的博弈,也称为联盟训练或自动课程)中的大量智能体学习问题,其中行为多样性是一个关键但尚未充分探索的主题。本章为策略空间中的行为多样性提供了第一个数学上严格的定义,并提出了被证明可以在策略训练期间扩大多样性的学习算法。零和博弈的经验结果表明,所提出的方法在很大程度上优于现有的最新技术。这项研究可能会产生重大的经济影响,因为所提出的算法可以直接插入到开发游戏 AI 的联盟训练中(例如,训练能够在扑克游戏中击败人类玩家的 AI 群体)。

  • 第 7 章:除第3章外,本章介绍MARL的第二种应用,即自动驾驶(AD)。我展示了使用 MARL 技术来模拟 AD 中现实和多样化的多智能体交互的巨大潜力。具体来说,我介绍了 SMARTS 平台:第一个专门支持 RL 和 MARL 训练的 AD 模拟器。基于 SMART,我分享了一个蓝天理念,即在 MARL 中创建多样化的自动课程是在 AD 中建模现实交互的关键。我详细阐述了多样化自动课程的必要性,并列出了应用这种技术的四个开放挑战。本章的贡献有两方面:首先,我展示了 MARL 技术可以在真实的物理世界中产生有影响力的应用,而不是纯粹的视频游戏;其次,我向 AD 中的研究人员介绍了一种新方法,以便他们能够生成当前缺失的高质量交互。

  • 第8章:在最后一章中,我总结了这篇论文,并提出了四个未来的研究方向;它们是深度 MARL 理论、安全鲁棒的 MARL、基于模型的 MARL 和多智能体元 RL。

成为VIP会员查看完整内容
41
0

摘要

最近关于人工智能(AI)和国际安全的学术研究集中在用机器取代人类战士的政治和道德后果层面。然而,人工智能并不是人类决策的简单替代物。商业机器学习的进步降低了统计预测的成本,同时提高了数据(使预测成为可能)和判断(决定了预测为何重要)的价值。但是,这些关键的补充--高质量的数据和清晰的判断--在不确定和冲突性的战争事务中可能并不存在,或存在的程度不一样。这有两个重要的战略意义。首先,采用人工智能的军事组织将倾向于变得更加复杂,以适应各种决策任务中的数据和判断的挑战。第二,数据和判断将倾向于成为战略竞争中具有吸引力的目标。因此,涉及人工智能补充的冲突可能会与人工智能替代的设想有很大不同。与快速的机器人战争和军事力量的决定性转变相比,由人工智能驱动的冲突可能会涉及重大的不确定性、组织摩擦和长期争议。因此,对人工智能的更多军事依赖将使战争中人的因素更加重要,而不是更少。

作者

Avi Goldfarb:多伦多大学人工智能和医疗保健领域教授,美国国家经济研究所研究助理。

Jon R. Lindsay:佐治亚理工学院网络安全与隐私学院副教授,萨姆-纳恩国际事务学院副教授。

出版时间

2022年2月25日

1 引言

有一个新的政策共识,即人工智能(AI)将改变国际政治。正如美国国家安全委员会在2021年关于人工智能的报告中所说:"机器比人更快、更准确地感知、评估和行动的能力,在任何领域--民用或军用--都是一种竞争优势。人工智能技术将成为利用它们的公司和国家的巨大力量源泉。"然而,对基本概念的不明确,使评估人工智能的安全影响变得复杂。人工智能也有多种含义,从大数据、机器学习、机器人和致命的无人机,到全面的 "第四次工业革命"。

在这篇文章中,我们将重点放在机器学习上,它是在媒体、管理学和经济学文献中受到关注的关键人工智能技术。我们撇开关于通用人工智能(AGI),或与人类智能相匹配或超过人类智能的系统的辩论。成功的民事应用包括导航和路线规划、图像识别和文本翻译以及有针对性的广告。迈克尔-霍洛维茨(Michael Horowitz)将人工智能描述为 "终极推动者",用于实现从公共管理和商业业务到战略情报和军事战斗等各种决策任务的自动化。

技术经济学文献中的一个重要见解是,与一项新技术的互补决定了它的影响。从这个角度来看,人工智能不是人类决策的简单替代品。机器学习的快速发展改善了统计预测,但预测只是决策的一个方面。决策的另外两个重要因素--数据和判断--代表了对预测的填补。就像便宜的面包扩大了黄油的市场一样,人工智能的进步降低了预测的成本,使其补充更有价值。人工智能预测模型需要数据,而准确的预测需要更多、更好的数据。高质量的数据提供了大量的相关信息,没有系统性的偏见。数据驱动的机器预测可以有效地填补优化给定效用函数所需的信息,但效用函数的规范最终依赖于人类对究竟什么应该最大化或最小化的判断。判断决定了什么样的模式和结果是有意义的,什么是利害关系,对谁,在什么情况下。明确的判断是事先规定好的,并得到相关利益者的同意。当高质量的数据可用,并且一个组织可以阐明明确的判断,那么人工智能可以改善决策。

我们认为,如果人工智能使预测对军事组织来说更简单,那么数据和判断将变得更有价值,也更有争议。这一论点有两个重要的战略意义。首先,使人工智能在商业领域取得成功的条件--高质量的数据和清晰的判断--可能并不存在,或在相同程度上存在于所有军事任务。在军事方面,判断包括指挥意图、交战规则、行政管理和道德领导。这些功能无法通过狭隘的人工智能技术实现自动化。因此,对人工智能的日益依赖,将使人对军事力量更加重要,而不是减少。其次,数据和判断力的重要性为战略竞争者创造了改进、保护和干预信息系统和指挥机构的动力。因此,关于信息的冲突将变得更加突出,而组织协调将变得更加复杂。与关于快速机器人战争和军事优势的决定性转变的假设相比,我们预计人工智能驱动的冲突将以环境不确定性、组织摩擦和政治争议为特征。因此,人工智能补充物的竞争可能会与想象中的人工智能替代品战争不同。

关于人工智能的许多希望和担忧重述了早期关于军事领域信息技术革命(RMA)和网络战争的观点。关于商业创新的变革性影响、网络计算的速度和危险性、进攻对防御的主导地位以及崛起的中国对脆弱的美国的优势等熟悉的套话比比皆是。但怀疑论者对这些关于RMA和网络战争的假设的逻辑和经验基础都提出了系统性的挑战。关于信息技术,表面上看似合理的论点往往忽视了影响数字系统使用的重要组织和战略因素。与经济学文献一样,关于军事创新的学术研究的一个首要主题是,技术不是军事力量的简单替代品。此外,实施过程中通常会出现摩擦、意外的后果和令人失望的结果。因此,RMA和网络辩论为有关人工智能的主张提供了一个警世的故事。就像任何其他信息技术一样,期望组织和战略背景对自动化系统的性能产生影响是合理的。

然而,人工智能可能看起来有所不同,因为人类机构处于伦理道德危险之中。最近的学术研究对自动决策的前景提出了一系列的问题。人工智能是否会破坏威慑和战略稳定,或侵犯人权?国家和联盟如何维持对自动化战士的控制?人工智能是否会将权力的平衡从现任者转向挑战者,或从民主国家转向专制国家?关于军事人工智能的文献较少关注人工智能的补充物,即利用自动化决策的优势和减少风险所需的组织基础设施、人的技能、理论概念和指挥关系。

在这篇文章中,我们挑战了人工智能替代背后的假设,并探讨了人工智能补充的意义。一支由致命的自主武器系统组成的军队很可能会破坏稳定,而这样一支军队很可能对民主国家和专制国家都有吸引力。然而,机器将取代战士的想法,代表了对战士实际工作的误解。我们认为,如果不首先澄清人工智能所要解决的问题,预测激进的战略后果是不成熟的。我们提供了一个框架,解释人工智能的补充(即数据和判断)如何影响决策。一般来说,当高质量的数据能够与清晰的判断相结合时,自动化是有优势的。但是,指挥、射击和机动这些军事任务充满了不确定性和混乱。相比之下,行政和后勤方面更多的制度化任务往往有大量的数据和明确的目标,这有利于自动化。我们认为,如果军队将这些条件混为一谈,在不确定的情况下过早地为自主系统提供明确的目标,就有可能面临糟糕或悲惨的结果。相反,对于拥有高质量数据但难以判断的情报和行动任务,人类和机器团队可以分配决策的认知负荷。我们预计许多(如果不是大多数)军事人工智能任务将属于后一种类型,我们将其描述为人机合作。我们认为,最终的结果是,数据和判断将变得越来越有价值和有争议,因此,由人工智能支持的战争将倾向于变得更加持久和令人困惑。

我们分五个部分来阐述这一论点。首先,我们概述了我们的分析框架,该框架将决策的普遍过程与其可变的政治和技术背景区分开来。这个框架解释了数据和判断如何影响决策中的人机分工。其次,我们描述了在商业和军事事务中不同的战略和制度条件是如何塑造数据的质量和判断的难度的。然后,我们将这些因素组合成人工智能执行决策任务的四个不同类别,并以商业和军事实例加以说明。倒数第二节讨论了数据和判断变得更有价值的战略意义。最后,我们对论点和进一步的影响进行了总结。

2 决策的政治和技术背景

商业和军事组织在很多方面都很相似,但它们的运作环境却非常不同。在图1中,我们通过将决策的经济模型嵌入到国际关系框架中来分析区分人工智能相关的相似性和差异。战略环境和组织机构分别影响数据和判断的质量。同时,机器学习的创新--主要由民用部门推动--降低了预测的成本。

图1 军事组织中决策的战略背景(The Strategic Context of Decision-Making in Military Organizations)

2.1 政治背景:环境和机构

我们采用国际体系和(美国)国内机构之间的标准国际关系区分。图1中的 "战略环境"是指一个军事组织面临的外部问题。为了通过征服或拒绝来改变或维护当地的事实,军队需要关于许多事情的信息,如国际力量平衡、外交结盟和联盟、地理地形和天气、敌人的作战能力和部署,以及与民间社会的互动。这些外部事务构成了军事行动的威胁、目标、机会、资源和限制。军队也需要有关内部事务的信息,如友军的能力和活动,但这些都是达到目的的手段。战略环境最终是军事数据的内容,而环境的结构和动态会影响数据的质量。

图1中的 "制度和偏好(Institutions and preferences)"是指军事组织解决其战略问题的方式。这一总体类别包括官僚结构和程序、军种间和联盟政治、军民关系、与国防工业的互动以及其他国内政治。这些因素中的任何一个都可能影响军事组织的目标和价值观,或影响其对特定情况的解释方式。组织机构体现了偏好,无论其来源如何,这反过来又影响了判断的质量。制度结构和程序可能产生协调问题、政治争议或解释上的困难,使军事组织难以弄清什么是重要的和为什么重要。

此外,正如下文所讨论的,我们预计在一些军事决策任务中采用人工智能将(内生地)影响战略环境和军事机构的时间。随着数据和判断力变得更有价值,战略竞争者将有动力去改进和争夺它们。因此,我们预计对信息的冲突将变得更加突出,而组织协调将变得更加复杂。

2.2 技术背景:作为预测的机器学习

自2000年以来,人们对人工智能的兴趣再次升温,这是由一个叫做机器学习的子领域的快速发展所推动的。与 "老式人工智能"(GOFAI)相比,机器学习技术代表了一种不同的方法。GOFAI强调演绎定理证明和搜索优化。相比之下,机器学习是一种统计预测的形式,即使用现有数据来归纳产生缺失信息的过程。虽然预测一词通常意味着对未来的预测,但模式识别和对象分类也是预测的形式,因为它们填补了第一次遇到的情况信息。机器可以将今天人类执行的许多预测任务自动化(例如,图像识别、导航和预测),它们还可以增加预测的数量、准确性、复杂性和速度。这有可能改变人类的工作流程。虽然机器可能不会做决定,但它们可以改变谁做什么决定以及何时做决定。随着机器学习降低了预测的成本,各类组织机构也在创新方法来改善数据和判断,以便做出更好的决定。

预测通常涉及从一组训练数据中进行归纳,对新数据进行分类或综合。在21世纪初,计算、内存和带宽的改进显然可以使机器学习在商业上可行。像谷歌、亚马逊和Facebook这样的公司,通过将他们从消费者行为中获得的 "大数据 "与自动预测技术相结合,成功地锁定了他们的广告和数字服务。这些发展也使间谍活动和监视活动达到了前所未有的规模。

从经济角度来看,现代人工智能最好被理解为一种更好、更快、更便宜的统计预测形式。然而,对决策的整体影响是不确定的。这意味着组织,不管是军事组织还是其他组织,在未来能够比今天进行更多的预测,但不一定在所有情况下他们的表现都会改善。

2.3 决策过程

经济决策理论是与控制论的知识传统同时出现的。正如赫伯特-西蒙在60多年前指出的那样,"现实生活中的决策涉及一些目标或价值,一些关于环境的事实,以及从价值和事实中得出的一些推论。"我们将这些要素描述为判断、数据和预测。它们共同产生了影响经济或政治结果的行动。行动的反馈产生了更多的数据,这些数据可用于更多的预测和决策,或用于重新解释判断。军事理论中所谓的OODA循环也体现了同样的思想。决策周期支配着各种决策任务,从琐碎的(拿起一支铅笔)到深远的(战争动员)。抽象的决策模型对实施是不可知的,这意味着决策逻辑可以通过有机的、组织的或技术的成分来实施。

然而,实施恰恰是人工智能的关键所在。因此,图1说明了数据、判断、预测和行动如何影响决策中的人机分工。我们强调决策中的人机分工,是因为人工智能的具体任务实施会产生重大影响。控制论决策的普遍性解释了为什么许多人认为人工智能是一种通用技术,就像电力或内燃机一样。人工智能确实可以改善预测,这是任何一种决策的重要输入。但人工智能并不是唯一的输入。组织也依靠数据和判断来做出特定任务的决策。简而言之,人工智能是一种通用技术,在特定情况下表现不同。

2.4 人机分工

在分析或部署人工智能时,有必要考虑服务于特定目标的特定任务。机器学习不是通用人工智能(AGI)。因此,我们的分析单位是决策任务,也就是产生特定组织结果的数据、预测、判断和行动的集合体。大多数组织执行许多不同的、相互关联的任务,如战略、管理、人力资源、营销、网络管理、制造、运营、安全和后勤。这些任务的军事类似物包括指挥、行政、训练、情报、通信、火力、机动、保护和维持。在这些类别中,还有无数不同的战术、技术和程序。这些任务中的任何一项,无论其范围或规模如何,都可以直接或间接地支持一个组织的总体任务,而这个任务可能是明确的,也可能是不明确的。事实上,一项任务本身也可能定义不清,部分原因是任务分解是管理判断的问题。

人工智能在任何特定任务中的表现都是数据质量和判断难度的函数。这两个补充因素为自动决策提供了基本的背景。如果相关的信息是大量可用的,并且没有系统性的偏见,那么数据就是高质量的。如果目标可以事先明确规定,并且利益相关者对其达成一致,那么判断就很明确。

数据质量的高低,判断的清晰与否,决定了人类和机器在决策中的比较优势。相反,替代品只决定了自动化的技术潜力(即通过降低预测或行动的成本)。表1总结了数据和判断对人工智能性能的影响。人工智能对未来战争的影响必然是推测性的,这使得从一个坚实的演绎基础上进行理论化更加重要。

表1 数据和判断对决策自动化的影响

3 商业和战争中的人工智能互补性

对民用人工智能系统的大量实证研究验证了人工智能取决于高质量的数据和清晰的判断这一基本发现。在决策确实是一种普遍活动的范围内,期望其模型适用于军队是合理的。但我们提醒不要从商业世界归纳到军事事务(反之亦然)。商业和军事组织在不同的背景下执行不同的任务。"胜利 "或 "安全 "这样的目标比 "股东价值 "或 "利润 "更难界定。战斗人员试图从肉体上摧毁他们的竞争对手,而失败的后果可能是存在的。

人工智能在许多商业情况下被成功应用的一个未受重视的原因是,高质量的数据和清晰的判断力的有利条件经常存在。和平的商业通常是在制度化的环境下进行的。法律、产权、合同执行机制、多样化的市场、共同的期望和共同的行为规范都有利于买方和卖方。这些制度特征使交易更加一致和高效。反过来,一致性也为完全自动化提供了必要的支架。我们期望人工智能在更多的制度化环境和更多的结构化任务中更加成功。

相比之下,战争发生在一个更加混乱的环境中。根据现实主义的思想传统,在国际体系中,没有合法的总体机构来裁决争端,执行国际协议,或约束行为。盟国和对手都有动机歪曲自己的能力和利益,并出于同样的原因怀疑他人的欺骗行为。军事化危机和冲突充满了秘密和不确定性。战争的目的是有争议的,顾名思义,它们调动了国家的激情,无论好坏。

我们预计,战争中缺乏约束性机构,会破坏高质量数据和清晰判断的人工智能有利条件。一个证明规则的例外是,军事官僚机构可能能够为一些军事任务提供支架。换句话说,强大的组织机构可能会取代薄弱的国际机构。然而,在固有的不确定和有争议的战争环境中,组织机构能够完成的任务是有限的。数据和判断的具体背景将决定任何特定任务的自动化可行性。

3.1 数据和战略环境

商业人工智能系统通常需要成千上万,甚至数百万或数十亿的例子来产生高质量的预测。正如深度学习先驱杰弗里-辛顿所说:"就拿任何你必须预测的老问题来说,如果你有大量的数据,深度学习可能会使它比现有的技术更好。"对大量数据的需求,以及标记和描述其内容的详细元数据,是众所周知的。但对高质量数据的需求却不太被重视。有两个因素会破坏数据的关联性。首先,数据可能偏向于某个人群或情况。其次,关于被预测的特定情况的数据可能不存在。后一种情况出乎意料地经常发生,因为当预测能让人了解到如果一个组织改变其行为会发生什么时,预测就特别有用。如果该组织从未以某种方式行事,那么相关的数据就不存在,相关的统计预测就会失败。

竞争者或对手可以通过操纵数据来制造偏见或阻断数据的供应,从而加剧数据相关性的问题。如果对手找到了访问和破坏用于训练人工智能系统的数据的方法,那么预测就会变得不那么可靠。更广泛地说,如果人工智能在优化任何特定问题的解决方案方面变得很好,那么聪明的敌人就有动力去改变问题。用人工智能的说法,敌人会 "超越训练集",创造一个在机器学习的数据中没有先例的情况。敌人可以创新出人工智能系统难以发现的新战术,或者追求人工智能系统无法预料的目标。

战争中的不确定性来源很多(例如,恶劣的天气、不熟悉的地形、糟糕或遗漏的情报、误解、敌人的欺骗)。正如卡尔-冯-克劳塞维茨的名言:"战争是不确定的领域;战争中行动所依据的四分之三的因素都被包裹在或大或小的不确定的迷雾中。"克劳塞维茨还用 "摩擦 "这一机械比喻来描述组织的崩溃。信息技术中的 "摩擦 "也会造成 "迷雾",因为为提高确定性而采用的相同系统会成为不确定性的新来源。网络化组织中的军事人员努力连接系统,协商数据访问,定制软件,保护信息安全。计算机故障和配置问题往往 "累积起来,最后产生一种除非经历过战争否则无法想象的摩擦。"对战时实践的经验性研究显示了大量创造性的黑客行为,以修复和重塑技术,处理信息时代战争中的巨大摩擦。为控制这些风险而进行的管理干预会产生更多的摩擦。我们认为,旨在 "拨开战争迷雾 "的人工智能系统同样可以轻易地将迷雾 "移"回组织中。

虽然战争中充满了不确定性,可能会扭曲或破坏数据,但我们预计数据的质量会因任务和情况而异。换句话说,战略环境的微观结构是非常重要的。我们期望有关友军的数据更加可靠,因为指挥官可以授权报告格式和时间表。我们期望后勤和行政报告比作战报告更可靠,因为后者更容易受到敌人的影响。关于敌人的部署和能力的情报应该更不可靠。即便如此,关于 "谜团"(如武器系统的位置和能力)的情报可能比关于 "谜团"(如未来的意图和国家决心)的情报更可靠。敌人的欺骗或假情报行动往往会破坏数据的质量,为了狭隘的利益而将情报政治化也是如此。评估数据的具体战略背景,以及人工智能对任何特定决策任务的适用性是至关重要的。

3.2 判断和军事机构

即使有足够的正确类型的数据,人工智能仍然依靠人们来确定预测什么和为什么。例如,商业公司在确定其商业模式、公司价值、劳资关系和谈判目标时,会做出许多不同的判断。军事组织面临类似的管理挑战,但他们也面临独特的挑战。军事判断还包括国家利益、政治偏好、战略任务、指挥官的意图、交战规则、战斗伦理和武术社会化。由于战争的代价和后果是如此深远,所有这些问题往往都带有模糊性、争议性和痛苦的权衡。因此,在军事事务中,判断变得更加困难,而且后果越来越严重。

有三种类型的机器学习算法,都需要人的判断。首先,在 "监督式学习 "中,人类告诉机器应该预测什么。第二,"无监督学习"需要判断对什么进行分类以及如何处理这些分类。第三,"强化学习"需要预先指定一个奖励函数。奖励函数为感知到的世界状态分配一个数字分数,以使机器能够最大化一个目标。更复杂的策略可以通过建立追求主要目标的工具性目标来结合这些方法。在每一种情况下,人类最终会对算法进行编码,并为机器定义奖励。

在经济学术语中,判断是对效用函数的规范。决定效用的偏好和评价与使其最大化的策略不同。举个微不足道的例子,那些不介意被淋湿而不喜欢带伞的人,无论天气预报如何,都不会带伞。不喜欢淋雨又不介意带伞的人可能会在包里放一把伞。如果下雨的几率是75%,其他人可能会带伞,但如果是25%,则不会。对雨的预测与对淋雨或准备淋雨的偏好无关。同样地,人工智能对臭名昭著的 "手推车问题 "的变体提出了一个关于生死选择的伦理困境。例如,一辆自动驾驶汽车是否应该转弯以避免碾压四个儿童,而冒着杀死其人类乘客的风险?如果人工智能预测,无论哪种情况都会有人死亡,如果所有的生命都同样有价值,那么汽车就应该转向,但如果乘客的生命价值至少是一个随机儿童的四倍,那么它就不应该转向。这种困境低估了其中判断的复杂性。事实上,人工智能的伦理困境重新激活了对功利主义推理的长期批评。正如Heather Roff所指出的,"我们不能谈论道德的人工智能,因为所有的人工智能都是基于经验性的观察;我们不能从'是'中得到'应该'。如果我们对如何构建、设计和部署人工智能有清醒的认识,我们就会得出结论,围绕其发展和部署的所有规范性问题都是人类几千年来一直提出的问题。"

如果电车问题看起来很牵强,请考虑一下亚利桑那州坦佩市一辆自动驾驶的Uber汽车杀死一名骑自行车的人的案例。人工智能预测到人类在其路径上的概率很低,但不是零。该车的设计有一个忽略低概率风险的阈值。不撞人的优先级是很明显的。然而,如果错误容忍度设置为零,汽车将无法行驶。在哪里设置容错是一个判断的问题。在这种情况下,似乎预先指定的判断对于当时的环境来说是非常不合适的,但预测机器完全没有概念,不知道什么是危险。

一个规范的人工智能效用函数有两个特点。首先,目标是事先明确定义的。如果设计者不能正式规定所有情况下的报酬和优先级,那么每一个预测都需要一个定制的判断。在医疗应用中经常出现这种情况。当有许多可能的情况时,往往需要人类在看到诊断结果后进行判断。判断不能事先确定,因为要明确所有可能的突发情况需要太多的时间。这种动态或细微的情况实际上需要不完整的合约,即撇开复杂的、针对具体情况的细节,以便以后谈判。因为所有情况都不能事先规定,所以需要在看到预测后作出判断,以解释协议的精神。

不完整合约的军事版本是 "任务指挥",它规定了军事目标和交战规则,但授权当地人员解释指导,协调支持,并根据情况的发展调整行动。标准操作程序、理论模板和明确的协议通过详细说明操作和设备处理,有助于提高行动的可预测性。然而,在有不可预测的对手的动荡环境中,标准化的任务指令可能是不合适的。军事行动中出现不确定性和意外的可能性越大,地方指挥官就越需要发挥主动性和谨慎性。用克劳塞维茨的话说,战场上的 "迷雾 "和组织中的 "摩擦 "要求指挥官发挥 "天才"的作用,即 "一种提高到惊人程度的判断力,它能轻易掌握和排除无数种遥远的可能性,而普通人的头脑会努力去识别这些可能性,并为此耗尽自己。" "天才 "在任务指挥中的作用在现代联合武器战争和多领域行动中变得特别重要,而且特别具有挑战性。当所有可能的因素组合都不可能事先确定时,人员必须在现场发挥创造力和主动性。现代军事行动倾向于混合两种风格的元素,让地方指挥官在如何解释、实施和结合事先已经标准化、制度化和演练过的工具、战术和程序方面拥有自由度。

明确的人工智能效用函数的第二个特点是,所有的利益相关者应该就追求什么目标达成一致。当人们难以就优化什么达成一致时,评估或汇总不同偏好的透明机构程序可能有助于验证指导人工智能系统的决定或使其合法化。不幸的是,随着 "天才 "在地理上的分布、社会上的协作和技术上的要求越来越高,共识变得难以捉摸。在阿富汗师级指挥的民族志中,安东尼-金写道:"一个将军必须定义一个任务,管理由它组成的任务,并激励部队。"这三个因素中的第一个--指定积极目标和消极限制--是判断的完美函数;人工智能在这方面提供的帮助很少。人工智能可能为第二个因素提供一些支持,即监督和管理,这涉及到判断和预测的混合。第三个因素是领导力,从根本上说,这是一个判断问题,因为领导者试图在整个组织中实现共同的目的、价值观和解释。同样,人工智能对领导力问题没有什么用处,随着组织在地理和职能上的分布,领导力问题变得更加重要。"事实上,在所有三个领域--战略、管理、领导--中,"决策已经激增",因为 "指挥官不能再单独指挥行动。"据安东尼-金说,指挥官现在不再是一个中央控制者,而更像是一个协调 "指挥集体 "复杂互动的社会焦点。

然而,集体指挥是一个集体行动问题。在某些情况下,标准操作程序和社会化仪式可以简化判断任务。安东尼-金发现,"指挥小组、指挥委员会、主要规划小组和副手已经出现,以协助和支持指挥官,并管理指挥官无法参与的离散决策周期。"然而,在其他情况下,来自不同部门、分支或单位的人员可能对如何解释甚至是基本的战术、技术和程序产生分歧。当任务分配超出专业人员认为正确或适当的范围时,分歧可能会变成争议,例如,当军队被赋予反叛乱的任务,空军被赋予近距离空中支援的任务,或者文化偏好的冲突。任何加剧军事机构中的混乱或分歧的因素都会使人工智能自动化的判断更加困难。

4 AI在军事决策任务中的表现

正如我们在前几节所解释的,决策是一个普遍的过程,但决策输入是针对具体环境的。即使所有组织都可以使用相同的人工智能技术,使人工智能在商业领域取得成功的战略和制度条件可能不存在于战争中。因此,我们推断出关于数据和判断的关键人工智能补充的两个一般假设。首先,稳定、合作的环境更有利于产生丰富、无偏见的数据;相反,动荡、竞争的环境往往会产生有限、有偏见的数据。第二,机构的标准化和团结鼓励明确的、一致的判断;反之,特异的地方实践和内部冲突导致模糊的、有争议的判断。

这些假设的组合描述了人工智能在军事决策任务中表现的四种不同制度。表2通过将决策背景(图1)中的战略和制度综合输入到关键军事职能的人机分工(表1)中,总结了这些类别。人工智能表现的最佳情况是我们所说的 "自动化决策"。在高度常规化的行政和后勤任务中,最有可能获得高质量的数据和清晰的判断,这些任务更类似于民事组织任务。凡是官僚机构能做好的事情,人工智能可能都能帮助他们做得更好。人工智能的最坏情况是相反的象限,在这个象限里,两种自动化的补充都不存在。我们给这个类别贴上 "人类决策 "的标签,因为人工智能无法完成以有限的、有偏见的数据和模糊的、有争议的判断为特征的任务。对于军事战略和指挥任务,克劳塞维茨所说的环境中的 "迷雾 "和组织中的 "摩擦 "的极端情况需要人类的 "天才"。在其他两个象限,其中一个必要的补充是存在的,但另一个缺乏,人机分工更加复杂。 "仓促的自动化"这一类别描述了机器在不确定的环境中收到明确目标的情况。如果快速的自动化决策与致命的行动紧紧相连,这就是灾难的源头。不断变化的形势和人工智能系统中编码的决定之间的不匹配可能不会被人类立即发现,这加剧了悲剧性结果的风险,如目标错误或无意中的升级。在 "人机合作 "的相反类别中,判断任务是困难的,但有高质量的数据。人工智能决策辅助工具(如图形、表格、地图覆盖、图像注释和文本摘要)提供预测,增强但不取代人类的决策,而人类对人工智能的缺陷保持健康的怀疑态度。许多作战计划和情报分析任务以及战术任务支持工具都属于这个类别。为了证明我们框架的合理性,我们接下来提供一些商业案例,并探讨每一类的潜在军事应用和进一步影响。

表2 战略和制度条件如何影响Al在军事任务中的表现

4.1 自动化决策

如果有高质量的数据和明确的判断,决策的完全自动化可以提高绩效。例如,澳大利亚的皮尔巴拉地区有大量的铁矿石。这些矿区远离任何大城市,当地的条件往往非常炎热,人类在那里工作是很危险的。自2016年以来,矿业巨头力拓公司已经部署了几十辆自动驾驶卡车。这些卡车节省了运营成本,同时减少了人类操作员的风险。这种自动化是可行的,因为相对于手头的需求,数据是丰富的--卡车每天都在相同的道路上行驶,人类活动方面很少有意外。因此,数据收集被限制在少数障碍物较少的道路上。人工智能的主要任务是预测道路是否畅通。一旦做出这种预测,判断就很明确,而且很容易事先指定:如果道路畅通,就继续;如果不畅通,就停下来等待。在其他成功的自动化例子中,机器人摄像机已被部署在各种场合,包括在篮球比赛、游泳比赛和 "跟随我 "的空中无人机中。

我们期望人工智能能在军事任务中发挥作用,并有明确的民用类似物。虽然关于军事人工智能的流行辩论主要集中在自动武器方面,但许多有前途的应用可能会被设计成支持官僚机构的功能。除其他外,官僚机构负责收集和处理数据的计算系统,以使行动更加清晰、可预测和可控制,因此军事组织中最官僚化的部分是计算自动化的良好候选者。行政事务往往是重复性的,这就产生了大量的高质量数据,可用于训练和预测。组织被标准化所吸引,因为它使他们的设备、程序和人员更容易被统计、比较和控制。程序上的标准化也约束了组织行为,这使管理者更容易事先指定判断。此外,和平时期的行政任务在某种程度上较少受到战场动荡的影响,减少了对最后一刻的解释要求。

我们期望自动化能够提高常规化活动的效率和规模,这些活动需要填补缺失的信息,衡量技术性能,跟踪人员,并预测未来的需求。事实上,人工智能可以加强许多与制定预算、招募和培训人员、识别领导潜力、安排单位名册、设计和采购武器系统、计划和评估演习、关心服务人员及其家属的士气和福利,以及为服务人员和退伍军人提供医疗保健相关的常规任务。这些内部摩擦破坏了行政自动化的成功条件。

物流供应链也可能是自动化的良好候选者。事实上,像DHL和联邦快递这样的公司已经利用人工智能来精简他们的交付网络。标准化的零件、消耗率、重复性交易和预防性维护计划产生了关于定义任务的丰富数据。利用历史性能数据,预测性维护系统可以监测消耗率,并在武器或平台损坏前自动订购替换零件。例如,美国空军的一个系统使用预测算法来决定机械师应该在什么时候进行检查,这使他们能够为每架飞机量身定做维护和修理,而不是遵守通用的时间表。但我们认为,在战争中预测及时交付的供应和需求将更加困难。虽然官僚们可能与战场上的动荡隔绝,但供应线却更加暴露。敌人可以拦截或破坏物流。由于战时的损耗会消耗备件,各单位可能会争论哪个单位应该被补给。友军单位可能会采用非常规的方式使用平台和零件。所有这些动荡将导致预测失败,这基本上将人工智能转移到下面讨论的过早自动化的范畴。然而,如果组织为了追求效率而用人工智能系统消除闲置资源,那么当系统遇到不可预见的情况时,他们可能会牺牲效率。

总而言之,我们希望人工智能对那些在官僚体制下不受战场动荡影响的常规任务的自动化最为有用。重复性和标准化的行政和后勤任务更有可能有高质量的数据和明确的目标。人类仍然提供判断来定义这些明确的目标,但这是提前发生的。尽管这些条件是自动化的理想条件,但在实践中可能难以实现,特别是在有争议的资源和人事决定的情况下。因此,即使是可轻易实现的应用也往往会落入表2的其他三个类别,特别是人机合作。

4.2 人类决策

在另一个极端,对于数据质量不高、判断困难的情况,人类仍然做出所有决定。如果没有高质量的数据,机器预测就会退化。幸运的是,由于在这一类别中判断也很困难,所以几乎没有自动化的诱惑。这一类没有商业案例,因为我们还没有看到人工智能系统成功地创立公司,领导政治运动,或自己制定法律先例。如果没有高质量的数据和明确的判断,这样的机器将没有什么用处。只要机器学习的进展最好被理解为预测方面的改进,而不是AGI,那么这一类的任务就需要人类。然而,人并不总是能做出好的决定,成功的决定取决于许多不同的心理和社会因素,再加上好运气。

战略中充斥着复杂而有争议的政治和道德判断。什么是值得争取的,或者是值得妥协的?什么时候应该拥护或放弃盟友?什么时候黄油比枪支更有价值,什么时候威慑的稳定性胜过对权力的追求?为了什么国家利益,人应该被激励去杀人,去牺牲?什么时候杀人者应该表现出克制?这些问题的答案来自许多方面,如意识形态、心理学和国内政治,但它们并不来自机器。人工智能系统可能会赢得像危险游戏、围棋和复杂的视频游戏。战争与一些游戏有一些共同的特点,如战略竞争和零和报酬。但战争不是游戏。游戏是由制度化的规则定义的,但在无政府状态下,制度的失败会引起战争。

用克劳塞维茨的术语来说,战争是使用暴力将自己的意志强加于一个反应迟钝的对手。政治理性、民族激情和随机机会的相互作用使战争具有混乱的性质。好奇心、创造力、勇气和毅力成为重要的性格特征,更不用说同情心、仁慈和怜悯心。每当 "迷雾 "和 "摩擦 "最大,并且最需要人类的 "天才 "时,人工智能的作用就不大。人类在这些情况下也会经常失败,但至少他们有一个战斗的机会。

人工智能系统可能仍然能够通过提供决策辅助工具来支持战略和指挥,改善决策的情报、规划和行政投入。然而,这只是强调了将决策任务分解为人工智能可以支持的子任务和人类必须执行的子任务的重要性。判断任务的划分本身就是一种判断行为。对于战略和指挥中常见的流动的、模糊的或有争议的做法,数据、判断、预测和行动的界限可能难以区分,更不用说与其他决策任务区分了。在这些情况下,判断力变得更加重要。

4.3 不成熟的自动化

在完全自动化和完全人工决策的两个极端之间,既有风险也有机会。过早自动化和人机联手的混合情况产生了对人工智能的大部分担忧和兴奋。在数据质量不高,但机器被赋予明确目标并被授权采取行动的情况下,对人工智能的依赖尤其具有风险。当授权采取致命行动时,风险是最大的。如果数据有偏差或不完整,那么最好让人类而不是机器来解释不断变化的情况(即人类决策)。然而,如果人类错误地认为数据是丰富和无偏见的,那么他们可能错误地认为关键任务可以委托给人工智能(即自动化决策)。自动化似乎具有诱惑力的可行性,但奖励功能的定义未能跟上决策环境的重要变化。在动荡的环境中清晰的判断会产生隐患。

一个不成熟的自动化的例子是,亚马逊建立了一个人工智能系统来帮助其招聘过程。判断似乎很清楚:机器应该选择那些有可能在公司取得成功的工人。亚马逊收到了数以千计的简历,一个更好的筛选工具可以将人类招聘人员花在筛选简历上的许多时间自动化。我们有理由乐观地认为,这种自动化将减少偏见,产生更高质量和更多样化的候选人。不幸的是,亚马逊过去的申请和招聘做法意味着数据中没有足够的成功女性申请人的例子。由于没有成功的女性申请者的数据,人工智能了解到亚马逊不应该雇用女性,因此它筛选出了包含 "女性 "一词的简历。组织流程中现有的偏见产生了有偏见的人工智能训练数据。幸运的是,亚马逊管理层意识到,人工智能加剧了而不是解决了亚马逊现有的问题,因此该公司从未部署这一人工智能工具。

数据也可能是有偏见的,因为它们是基于预测机器可能不理解的决定。例如,一个早期的国际象棋人工智能是在数千场大师级比赛中训练出来的。在部署时,该程序在游戏的早期牺牲了它的皇后,因为它了解到这样做的特级大师往往会赢。然而,人类特级大师只有在这样做能产生明确的胜利途径时才会牺牲他们的皇后。虽然这个问题在人工智能国际象棋中已经得到解决,但潜在的挑战仍然存在。即使效用函数是明确的,训练数据也往往是人类决策中默示假设的结果。有时这些人类决策--例如在国际象棋中牺牲皇后--会产生有偏见的数据,导致人工智能预测失败。

与国际象棋相比,在军事领域,过早自动化的风险更加极端(例如自相残杀和平民伤亡),但逻辑是一样的。军队里有很多指导使用致命能力的标准操作程序和战术理论(例如,武器平台的安全操作说明、战术演习的游戏手册和使用武器的政策)。在目标和任务参数可以明确规定的程度上,战术行动似乎是有吸引力的自动化候选。此外,如果作战时间被极度压缩,那么自动化就显得更加紧迫了。致命的自主武器系统利用预测来导航复杂的环境,以便在人类操作者提供的约束条件下到达目的地或跟踪目标。它们的目标定位系统基于识别有效目标的训练数据进行预测。使用算法,机器可以在远比人类视觉识别更远的距离上快速准确地识别目标,而且算法目标识别可以与传感器一起使用,以减少反应时间。

许多具有人工智能功能的武器已经或即将出现。以色列的 "哈比"游荡弹药可以搜索并自动攻击目标,中国也有类似的 "智能化"巡航导弹的计划。美国一直在探索人工智能在所有作战领域的作战应用。在空中,"Loyal Wingman"计划将无人驾驶的F-16与有人驾驶的F-35或F-22配对,以探索使用人类指挥自主飞机的可行性,如XQ-58A Valkyrie。在海上,美国海军的LOCUST项目探讨了发射成群的消耗性地对空无人机的可行性。国防部高级研究计划局(DARPA)的连续跟踪无人船项目旨在搜索敌方导弹潜艇,并自动跟踪它们几个月,定期报告其位置。在陆地上,美国海军陆战队的 "战争机器人公司"配备了小型机器人网络,可以提供分布式传感和精确射击。自动反击炮弹的反应,准确地报复攻击的源头,可以使人类指挥官在攻击后有余地专注于第二和第三阶决策。在网络领域,人工智能系统可能会在网络攻击实时演变的过程中自主学习和反击,正如DARPA的2016年网络大挑战中的Mayhem系统的表现所表明的那样。人工智能对于检测电磁频谱中的新信号和重新配置电子战系统以利用或反击它们可能特别有用。

当作战环境以重要或微妙的方式偏离训练数据集时,误判的风险会增加。偏差的风险随着战略环境的复杂性和竞争性而增加,而误判的代价随着自动化行动的致命性而增加。机器试图优化一个特定的目标,但在错误的背景下,这样做会导致假阳性。人工智能武器可能无意中要么针对无辜平民或友军,要么引发敌对的报复。在这些情况下,人工智能将有权力杀人,但却不了解其后果。在核领域,风险尤其明显。核战争是最罕见的事件--保持这种状态是核威慑的全部意义--所以人工智能系统的训练数据要么不存在,要么是合成的(即基于模拟)。人工智能系统在面对不确定或新的情况时,任何误解或误判的倾向都可能产生灾难性的后果。

对于本节所回顾的大多数例子,人类应该在个案的基础上调整目标,以避免完全自动化的大量操作风险。DARPA空战演化(ACE)计划,在模拟斗狗中训练人工智能飞行员,强调了当人工智能在快速变化的背景下被赋予过多的决策自主权时可能出现的风险。"在AlphaDogfight试验中,组织者一度扔进一枚巡航导弹,看看会发生什么。巡航导弹遵循预先设定的飞行路线,因此它们的行为比驾驶喷气机更简单。人工智能飞行员对此很纠结,因为矛盾的是,他们在早先的一轮比赛中击败了导弹,现在是为更高要求的威胁而训练的。"像这样的实验鼓励ACE把重点放在 "有人-无人团队"上,而不是完全自主。然后,工程上的挑战是正确划分预测和判断的认知负荷(即把任务分解成不同的子任务),以便更快的机器和有思想的人类能够发挥他们的优势。这些例子表明,来自低质量数据的自动化风险增加了人类谨慎判断的重要性,并使人类与机器联手。在任何特定决策的具体背景下,需要人类来识别数据的不完整性或偏见,并就如何对可能不准确的预测采取行动提供判断。对于许多战术火力和机动任务来说,完全自动化的风险太大,但人的密切监督可能能够减轻这种风险。

4.4 人机合作

如果有高质量的数据,但判断是困难的,那么如果人类首先告诉机器该怎么做,人工智能仍然可以提供预测。我们将这一类别描述为 "人机联手",因为熟练的人可以使用人工智能来加强决策,但他们必须在敏感或特异的情况下指导和审核人工智能的表现。在这些情况下,高质量的数据将产生可靠的预测。然而,由于预设判断的困难,大多数从业者并不愿意部署完全的自动化,因为他们认识到这样做可能会产生更多的错误决定。

考虑一下税法这个平民化的例子,关于投资收入是否应该作为商业收入或资本收益征税的模糊性。通常情况下,一家公司会聘请一名律师来收集案件的事实,并预测法院可能会发现什么。然后,律师会向客户提供行动方案的建议。一家公司开发了一种人工智能,扫描税法决定,以预测税收责任。该人工智能并不推荐行动方案,因为做出这种判断需要了解客户的风险偏好和在法律体系中的舒适度。人工智能预测了如果案件进入法庭会发生什么,但它不能确定进入法庭是否是一个好主意。这项任务中的法律决定是预测性人工智能和人类律师之间人机合作的产物,后者必须解释预测,以判断什么建议最有利于客户。

出于类似的原因,人机合作应该在情报和规划组织中发展。例如,在遥控飞机(无人机)行动中,信息处理的负担很重,即使是在最高的战术层面。根据Timothy Cullen的人种学研究,"为了驾驶飞机和控制传感器,'死神'和'捕食者'机组人员必须协调16个显示器和4个触摸屏上无数的菜单、窗口和表格的含义、移动和呈现,有4个键盘、2个轨迹球、2个操纵杆和8个杠杆。"Cullen描述了预测和判断的复杂混合物,因为 "操作员在地面控制站中谈判并构建一个受限的环境,以协调任务的口头、打字、书面、图片和地理表述;从飞机的传感器中识别场景的模式;并将这些模式与友好和敌人的活动联系起来。" ISR无人机产生了如此多的数据,"仅2011年就有37年的全动态录像","大部分收集的数据都没有得到分析。" 人工智能能够通过持续监测多个数据源和突出感兴趣的模式来减轻一些数据处理负担。然而,Cullen强调了机组人员对他们应该--以及不应该--使用他们的传感器和武器做出许多看似微小的价值判断的方式。换句话说,人工智能提供了对数据的一种补充--预测,但它并没有提供作为决策基础的判断。

原则上,许多情报任务都可能从机器学习中受益。

图像识别算法可以通过无人机的视频资料进行筛选,以确定敌人的活动。面部识别系统可以检测感兴趣的个人目标,而情绪预测算法可以帮助识别拥挤街道上个人的敌意或善意。语音识别、语音合成和翻译系统可以缓解人类和信号情报以及军民关系和信息行动中人类翻译的短缺。一般来说,人工智能很适合分析大量数据和识别模式的情报任务,例如,识别和跟踪恐怖组织或叛乱分子。

在实践中,情报工作往往是艺术多于科学。战略环境或任务目标中不可预见的变化产生了新的数据要求,或者更糟的是,破坏了现有数据的参考完整性。在个案的基础上,从业人员利用他们的主题专业知识和经验来做出判断。将这种判断应用于人工智能预测是一种困难但可学习的技能。人工智能预测只是一个复杂的、有潜在后果的决策过程中的另一个输入。同时,鉴于收集、管理和消费情报的人之间的复杂关系,更不用说长期存在的情报政治化的风险,有很多可能会产生分歧。

一个军事组织不仅需要了解其对手,也需要了解自己。人工智能的前景有时比ISR的指挥和控制(C2)更好,因为友好的组织和程序更容易控制,从而产生更可靠的报告数据。很多工作人员的努力被消耗在搜索数据,向其他组织查询数据,以及根据新出现的信息要求重新分析和重新设置数据上。人工智能可以用来整合来自不同数据库的报告数据,帮助解决矛盾,并在 "共同的行动图景 "中查看活动。人工智能制作的决策辅助工具可以帮助人员分析正在发生的战场状况,运行模拟的行动场景,并提出备选方案供军事指挥官评估。例如,为了确定疏散受伤士兵的最佳方法,军队可以使用基于天气条件、可用路线、登陆地点和预期伤亡的预测模型。人工智能可以通过分析离开部队的报告中的非结构化文本(即散文段落而不是标准化的字段)来改善轮换部队之间的任务交接。ISR和C2报告系统产生了大量潜在的相关数据,但它们很难解释,相关的元数据往往缺失或误导。在这些情况下,高质量的数据可能会产生可靠的预测,但在整个决策过程中需要人为干预和解释。

人机合作往往不仅需要任务执行(即平衡人和人工智能之间的认知负荷),还需要任务设计(即随着情况的变化调整负荷)。从更细的层面来看,在我们的框架中属于人机合作类别的任务可能会被分解成属于框架中其他两个类别的子任务。也就是说,人类从业者将不得不把一项复杂的决策任务划分为完全自动化或完全由人类决策的子任务。这种细分需要对监测和控制过早自动化的风险做出明智的决定。例如,在无人机操作中的人机合作涉及到让无人机和无人机操作员自主地执行某些任务。无人机可能会自动执行飞行任务(即保持航线和方位或重新获取丢失的数据链),而人类无人机操作员可能会考虑合法的目标定位标准。

整体分区(即人类在循环中的位置)应随着时间的推移而调整,这将要求人类注意人类和机器之间的分工与任务环境和组织任务之间的关系。这种平衡将因不同任务和组织之间的相互依赖、数据访问、可解释性和互操作性问题,以及诸如速度、安全、保密性、效率、有效性、合法性、网络安全、稳定性、适应性等相互竞争的优先事项而进一步复杂。重要的是,如图1所示,作为决策任务外生的组织和政治机构确定了这些不同目标的优先次序。人类是所有人工智能系统中判断的最终来源。

5 军事人工智能的战略意义

本文的核心论点是,机器学习正在使预测变得更简单,这反过来又使数据和判断更有价值。这一发现也意味着,高质量的数据和清晰的判断会增强人工智能的性能。这些条件因决策任务而异,但考虑到环境和制度的复杂性,它们在军事情况下通常更难满足。然而,能够满足这些条件的组织可能会获得竞争优势。人的技能是这种竞争优势的核心,这有两个重要的战略意义。

首先,依赖人工智能的军事组织有动力改善数据和判断。这些人工智能的补充是力量的来源。其中至少有一项--判断力--完全依赖于人类。即使在我们的框架中,目标可以被正式指定并预先委托给自动化决策类别的任务,人类也必须设计奖励功能,他们可能会在监测系统性能时重新审视。人工智能的采用可能会从根本上改变判断力的分配,改变一个组织中谁在做决定以及关于什么的决定,但在所有情况下,人类最终负责设定目标,做出权衡,并评估结果。鉴于目前的技术水平,这种情况很快就会改变。另一个补充--数据--也依赖于人类。制定和实施数据政策,需要在数据生产者和消费者之间进行谈判。在构建数据基础设施和管理数据质量时,人们也会做出细微的判断。人工智能系统既不能设计自己,也不能清理自己的数据,这使我们得出结论,对人工智能的依赖增加将使人类技能在军事组织中更加重要。

第二,出于同样的原因,对手有动机使数据和判断复杂化。在一个高度竞争的环境中,组织的优势成为有吸引力的目标和潜在的弱点。由于可预测的对手会发挥人工智能的优势,智能对手的行为也是不可预测的。如果人工智能在一个领域创造了军事力量,对手将在另一个领域创造军事挑战。面对一支拥有人工智能能力的部队,敌人将试图通过破坏预测的质量或使其失去意义来改变游戏规则。因此,随着军事竞争者采用AL,争夺、操纵或破坏数据和判断的战略变得更加相关。 战争的信息和组织层面将继续增加突出性和复杂性。这再次让我们得出结论,更多的军事人工智能将使冲突中人的方面更加重要。

人工的重要性增加,这对关于人工智能和战争的新兴智慧提出了挑战。许多分析认为,人工智能将取代战士完成关键的军事任务,或者推测战争将以机器的速度发生,这反过来又创造了先发优势,激励了侵略并破坏了威慑。这些结果是合理的,但它们是基于对人工智能可替代性的未确定的假设。基于人工智能互补性的冲突可能表现出非常不同的动态。我们认为,考虑人工智能互补性(即数据和判断)的军事化竞争比设想自动化军事力量之间的战争更有用。数据和判断力常年处于危险之中的冲突可能充满了摩擦、争议和意外的后果,它们可能以令人沮丧的方式拖下去。简而言之,我们预计数据和判断力在战争中的日益突出会巧妙地改变战略激励。因此,由人工智能引发的冲突更有可能由决心和机构能力的缓慢削弱来决定,而不是由机器人部队之间的片面之争来决定。

5.1 信息争夺

信息在战争中的重要性几十年来一直在增加。ISR基础设施的增长,在战场上,空中,海上和水下,以及在太空轨道上,极大地增加了军事组织可用的数据量和种类。远程精确武器和高带宽数据链也扩大了军队可以利用的数据的数量,这反过来又产生了更多关于友好行动的数据。然而,更多和更好的数据并不总是转化为更有效的军事行动。在过去的一个世纪里,在采用信息技术的同时,军事组织的复杂性和地理分散性也在增加。强调智力技能而非体力战斗的数据密集型任务,如情报、通信和信息行动,在军事组织中激增。同时,先进的工业化国家要求其军队执行更复杂的行动。更多的复杂性反过来又增加了出现分歧和崩溃的可能性。敌人也学会了抵消ISR革命的优势,要么采取不对称战术混入平民中,要么利用空间和网络空间的潜力。随着战场传感器的进步使得近乎实时地探测目标成为可能,敌军学会了如何分散、隐藏和欺骗。

简而言之,现代战争中可能有更多的数据,但数据管理也变得更具挑战性。虽然美国的武器可能是快速和精确的,但近几十年来美国的战争是持久和模糊的。我们认为,人工智能很可能会加深而不是扭转这些趋势。事实上,自动化既是对军事信息实践日益复杂的回应,也是造成这种情况的原因。

正如指挥官们已经专注于C2架构一样,人工智能军队中的军官们将寻求获得与特定任务相关的大量数据,以训练和维护人工智能系统。各单位将不得不做出决定,他们是应该有机地收集自己的数据,还是从其他单位、政府机构或联盟伙伴那里获得共享数据。鉴于收集技术或内容本身的敏感性,我们预计许多相关的数据库将被分类和隔离,这将使共享变得复杂。各单位也可能选择利用公共数据源或购买专有的商业数据,这两种做法都有问题,因为非政府行为者可能会影响数据的质量和获取。随着军队处理新的问题,或新的行动机会出现,数据要求将发生变化,官员们将不得不定期寻找和整合新的数据来源。人工智能战略将要求军队建立数据政策,因此谈判获取数据将是一个持续的管理和人力挑战。

我们认为,军队不仅将面临数据访问,还将面临数据关联性的挑战。异质的数据生成过程使得偏见和异常现象悄然进入数据库。虽然元数据可能有助于组织信息处理,但它们也容易受到只有人类才能解决的数据摩擦的影响。因此,清理和策划数据源与首先获得它们一样重要。除了生产或采购数据的挑战,还必须加上保护数据的挑战。正如供应链在机械化战争中成为有吸引力的目标一样,数据供应也将成为有争议的。

总的来说,我们预计人工智能的兴起将加剧网络安全方面已经非常严峻的挑战。网络安全专业人员的目标是维护一个组织的数据保密性、完整性和可用性。如上所述,其中两个目标--完整性和可用性--反映了人工智能对无偏见和可访问数据的要求。就数据为人工智能采用者提供竞争优势而言,保密性的目标也很重要。在商业上,人工智能公司往往试图拥有(而不是购买)使他们的机器能够学习的关键数据。在军事上,这相当于机密信息,它被隐藏起来以产生决策优势。出于同样的原因,对手将有动机窃取、操纵和拒绝访问人工智能学习数据。迄今为止,大多数关于人工智能和网络安全的讨论都集中在网络安全的替代理论上,即使用人工智能系统来攻击和防御网络。但我们认为,网络安全的补充理论同样重要,甚至更重要。人工智能将要求整个军事企业投入更多精力来保护和利用数据。如果人工智能系统接受了机密信息的训练,那么对手将进行更多的间谍活动。如果人工智能增强了智能,那么对手将投资于更多的反间谍活动。如果人工智能为指挥官提供更好的信息,那么对手就会产生更多的虚假信息。

不可避免的是,官僚机构的不同部分将在它们之间以及与联盟伙伴和非政府行为者之间进行角力,以获取和整理大量的异质且往往是机密的数据。各组织还将与网络和情报对手斗争,以保持对其自身数据的控制,同时也开展自己的活动,收集或操纵敌人的数据。因此,为了理解人工智能的战略意义,了解网络冲突是有帮助的,迄今为止,大多数网络冲突更像间谍和秘密行动,而不是传统的军事战争。事实上,长期和模糊的情报竞赛比快速和决定性的网络战争更常见。对人工智能的军事依赖成为教唆网络冲突在全球事务中崛起的另一个因素,而网络冲突的(模糊的、混乱的、无休止的、灰色地带的)动态可能对人工智能冲突的动态有很大影响。

5.2 组织复杂性

正如人工智能军队将努力采购、清理、策划、保护和争夺数据一样,他们也将努力教授、谈判和合法化判断。事实上,数据和判断的挑战是相辅相成的。人们将发现更难解释大量的异质数据。更加复杂的数据架构将要求管理者考虑竞争目标(即保密性、完整性和可用性)之间的权衡,这可能会引起官僚主义的争议。然而,对于依赖人工智能的组织来说,判断是更基本的,因为人类必须告诉人工智能系统要做哪些预测,并决定在预测完成后如何处理这些预测。在自主系统中编码评估的人将拥有巨大的权力,因为人工智能增加了一些人类判断的影响规模。例如,个别汽车司机对自己的车辆作出判断,而为自动驾驶汽车编码的判断可以影响数百万辆汽车。同样,一个给定的自主武器系统的每个实例,将可能与其他人分享算法和训练数据。当广泛共享的判断是错误的、有偏见的或自我服务的,那么由它们指导的人工智能系统就会产生大规模问题。随着预测变得更好、更快、更便宜,良好的判断力就变得尤为可取。

一个基本的组织挑战是招聘、培训和保留人机协作所需的人才。我们预计,人工智能系统将增加初级人员的影响力,给他们的判断和决定提供更多的杠杆。然而,我们也预计,维护和操作人工智能系统的初级军官、军士、文职雇员和政府承包商将努力理解他们在复杂的政治形势下的行为后果。Charles Krulak将军强调了 "战略下士"在21世纪战场上的作用。Krulak认为,作战的复杂性使得战术行动更具有战略意义,无论好坏,这对初级人员的性格和领导能力提出了更高的要求。人工智能将进一步增加他们的判断负担。前线人员将不得不看到来自人工智能系统的预测,评估产生预测的数据是否可靠,并对自动化系统如何以及为何能够推进任务做出价值判断。此外,人工智能系统将需要不断地重新配置和修复,因为在实际行动中,人机协作的环境会发生变化。军事人员长期以来一直在进行实地的、自下而上的创新。我们预计,军事人员将同样入侵人工智能系统,以改善他们所理解的任务绩效,即使未经授权的修改使他们与官僚机构中其他地方的系统配置管理人员发生冲突。必须强调将对政治-军事形势的复杂理解与在实地设计人工智能的技术智慧相结合的人力资本需求。人工智能时代的战略下士不仅必须是克劳塞维茨式的天才,还必须是有才华的黑客。这可能不是一个现实的要求。

在实施人工智能系统的组织中,人机合作的重要性越来越受到重视。在所有关于人工智能和战争的炒作中,大量的深思熟虑的工作试图找出人类和机器的相对优势,并设计出将它们配对在一起的方法,以改善决策。正如美国国防部的人工智能战略所指出的,"美国武装部队中的人员仍然是我们持久的力量源泉;我们将利用人工智能支持的信息、工具和系统来增强而不是取代那些服务人员。"然而,该战略所宣称的"创建一个共享数据、可重复使用的工具、框架和标准以及云和边缘服务的共同基础 "的目标,更像是对问题的严重性的描述,而不是一个解决方案的蓝图。由于人工智能为大规模的效率改进创造了潜力,它也为大规模的集体行动问题创造了潜力。新的军事参谋专业肯定会出现,以管理数据和判断资源,创造新的机构股权和整合挑战。也许更具挑战性的是在所有参与设计、使用和修复人工智能系统的工程师、管理员、分析员、操作员和律师之间培养信任的问题。

由于廉价简单的预测使人类的判断力在各种任务中变得更加重要,而且需要更多的判断力来协调人机合作,我们预计军事机构将面临复杂的指挥决策,即为什么以及如何将人类和机器结合起来。拥抱人工智能的商业公司通常会调整其边界和商业模式,将涉及数据、预测和行动的任务承包出去(如制造、运输、广告和服务提供),同时发展难以外包的内部判断能力。同样,军事组织可能会发现在一个分散的单位网络中共享专业资源(传感器、射手、情报产品和后勤)是有利的,即使他们在努力使这一切变得合理。因此,人工智能是一个更广泛的历史趋势的一部分,它被描述为 "以网络为中心的战争"、"联合部队行动"、"综合多领域行动 "和 "机构间跨职能团队"等术语。整体大于部分的总和,但每个部分都必须在如何利用共享资产方面做出出色的判断。历史经验表明,军事上的互操作性和共同感知是很难实现的,但不一定是不可能的。120 因此,我们预计军事和政治判断将变得更加困难,更加分散,而且在地理上分布更广。

事实上,"战略下士"不断参与有关政治军事目的的对话,最终可能使军队政治化。正如Risa Brooks所言,在美国,政治目的与军事手段的规范性分离产生了一些自相矛盾的不利后果:它促成了服务的狭隘性,破坏了平民的监督,并降低了战略审议。对人工智能的更大依赖可能会加剧所有这些问题,正是因为人工智能是一种力量倍增器,需要军事人员做出更大的判断。布鲁克斯的论点意味着,一个人工智能密集型的国防官僚机构可能会变得更强大,更有政治智慧。如果机器完成了大部分的数据收集、预测和战术作战,那么人类工程师、管理者和操作者的判断就会产生很大的影响,即使是在问责制的道德问题变得更难回答。正如伊拉克和阿富汗战争期间的许多丑闻(从瞄准错误到虐待囚犯)所证明的那样,一些军事人员可能无法达到如此高的卓越水平。对人工智能的日益依赖将放大整个指挥系统的领导力的重要性,从文职精英到士兵服务成员。

如果一个军事组织能够弄清楚如何招募、培训和留住高素质人才,并彻底改组和下放其C2机构,那么这种改革可能有助于灌输和协调判断力。这样做将使军队能够在战争中最大限度地发挥人机协作的作用。然而,如果判断力是军事力量的源泉,那么它也可能是一个政治弱点。随着组织和政治判断力成为人工智能军事力量的首要来源,我们预计判断力也将成为对对手最有吸引力的目标。如果人工智能依赖于联合数据和指挥结构,那么对手就会采取楔子战略来瓦解军事联盟。如果对战争目标的共识取决于强有力的政治支持,那么对手就会开展虚假信息和影响活动,以引起争议并破坏民众的支持。如果自动化系统在严格控制的交战规则下运作,对手将试图操纵使使用武力合法化的规范框架。如果人工智能能使目标定位更有效,敌人将提出更多有争议和充满道德的目标来测试政治决心。

6 结论

认为人工智能将在战争或任何其他竞争性工作中取代人类这是过早不成熟的。为了理解人工智能在任何领域的影响,重要的是要将决策分解为其组成部分:数据、判断、预测和行动。关于人工智能的经济学观点认为,机器学习是更有效的预测(而机器人是更有效的行动),这使得数据和人类判断更有价值。这意味着算法和计算能力的创新对人工智能的表现是必要的,但不是充分的。我们认为,决策的背景--组织在哪里和如何使用人工智能以及出于什么目的--决定了自动化是否可能或可取。反过来,数据和判断的互补性对准备和进行人工智能化的战争有重要影响。

我们认为,战略环境决定了数据的质量,而组织机构决定了判断的难度,这就产生了人工智能在军事任务中的四种不同类型的表现。高质量的数据和清晰的判断使 "自动决策 "成为可能,这对于受到官僚主义制约的行政和后勤任务来说是最可行的。低质量的数据和困难的判断,在战略和指挥任务中很常见,这就需要 "人类决策"。适用于低质量数据的明确判断会产生 "过早自动化"的风险,特别是当人工智能系统被授权执行火力和机动任务时。高质量的数据和困难的判断可以在 "人机合作 "中结合起来,这可以用来改善情报和规划任务。我们预计,许多(如果不是大多数)人工智能的实际军事应用可能属于最后这一类。即使是那些似乎符合 "自动决策 "类别的高度官僚化的任务,也可能需要人类的判断,特别是当预算和人事决策处于危险之中或资源稀缺造成困难的行动权衡时。同样,看起来属于 "人类决策 "类别的高度细微的指挥任务,通常可以被分解成可能受益于人工智能决策辅助工具的任务子集。大多数实施军事人工智能系统的从业人员都意识到在火力和机动方面 "过早自动化"的风险,部分原因是对 "杀手机器人 "的广泛担忧。因此,为了确定人类和机器之间的适当分工,人类必须决定预测什么,他们必须创建数据政策和人工智能学习计划,详细说明谁应该对这些预测做什么。

虽然我们同意传统观点,即人工智能是潜在的转型,但我们不同意这种转型可能是什么。一般来说,我们预计,在人工智能时代,战争的战略、组织和道德的复杂性将增加。当简单廉价的预测被应用于像战争一样具有挑战性和不确定性的政治环境中时,高质量的数据和正确的判断就变得极其宝贵。反过来,对手会采取步骤,通过操纵信息和违反预期来破坏数据和判断的质量。纠正对手的反措施将进一步增加判断的复杂性,这加剧了战争中固有的摩擦和挫折感。

我们必须再次强调,我们自始至终关注的是狭义的人工智能,特别是机器学习的改进,它导致了更好、更快和更便宜的预测。我们认为,最近导致媒体关注、商业应用和对公民自由焦虑的人工智能的进展与通用人工智能(AGI)关系不大。一些专家认为,AGI最终会发生,但这并不是目前所有人工智能炒作的目的。其他专家如布莱恩-坎特韦尔-史密斯(Brian Cantwell Smith)则直接表示悲观:"无论是深度学习,还是其他形式的第二波人工智能,或者任何尚未推进的第三波建议,都不会导致真正的智能。"事实上,在理解机器学习的实际作用时,"智能"的比喻非常具有误导性。相比之下,狭义人工智能的进步已经导致了更好、更快和更廉价的预测。这种人工智能系统是针对特定任务的。

如果AGI成为现实,那么这样的机器也会提供自己的判断。AGI将能够自己执行整个决策周期。在这种情况下,除了承受战争的后果之外,人类在战争中还有什么作用就完全不清楚了。我们认为,AGI的猜测将人工智能替代的主题推向了一个极端,即机器将能够战胜、压倒并消灭任何试图阻止它实现其目标的行为者。这种末日场景经常被比作电影《幻想曲》中的 "魔法师的学徒 "片段,其中由米老鼠扮演的同名学徒给扫帚施了魔法,并指挥它从井中取水。当米奇睡着时,扫帚最终淹没了整个城堡。米奇惊醒后,拼命想把扫帚砍掉,但这只会导致更多、更好的扫帚,使他的能力不堪一击。一个非常有用的战术任务因为目标不明确而变成了一场战略灾难。尽管如此,"巫师的学徒 "这个场景显示了判断力对任何类型的人工智能的重要性。一个只关心优化目标的人工智能--即使这个目标是由人类定义的--将不会考虑人类可能关心的重要的实用环境。

我们用经济学术语狭义地将判断定义为效用函数的具体化。然而,判断的丰富概念值得进一步分析。正如决策可以被分解为各个组成部分一样,判断力也可以被分解为人们确定什么是重要的以及为什么重要所需要的智力、情感和道德能力。军事判断力不仅包括克劳塞维茨式的勇气、决心和运筹帷幄的特质,还包括公平、同情和其他难以捉摸的品质的能力。有些战时情况需要无情、狡猾和敌意,而其他情况则需要仁慈、坦率和同情。除了这些性格特征,还必须加上好奇心、创造力和优雅的工程美德,因为工作人员必须在战场上重新配置人工智能系统。我们期望互补性的一般逻辑仍然适用于这个更精细的层次。因此,任何未来的人工智能如果能够将判断的某些方面自动化,将会使其他方面更加有价值。此外,人工智能使判断的丰富现象学更有价值,这对专业军事教育有重要意义。更多的技术不应该意味着更多的技术主义。相反,随着军队对人工智能的依赖程度越来越高,人员更多地参与人文科学并反思人类的美德将是明智的。一般来说,对人工智能的依赖将倾向于放大人类领导力和战争中道德方面的重要性。

最后,我们预计,更密集的人机合作将导致判断力在军事组织中变得更加广泛,而战略竞争将变得更加充满政治色彩。无论自动化战争的未来如何,人类都将是它的重要组成部分。

附 讲解PPT与video链接

成为VIP会员查看完整内容
39
0

Perkins Coie发布**《2022年新兴技术趋势》**,指出技术以及新技术的创新部署,越来越多地塑造着我们生活和与环境互动。本报告研究了10种新兴技术的关键发展、趋势和影响,这些技术不仅颠覆了今天的市场,还在影响和塑造明天的市场。

01

人工智能,机器学习和量子计算技术

· 经济

经济学家和评论员对人工智能的经济影响存在分歧。一方面,到2030年,该技术可以为全球经济增加多达13万亿美元,代表着国内生产总值的一个重要增长来源。

另一方面,部署人工智能的目的通常是为了减少开支,其中包括劳动力成本。正如麦肯锡全球研究所指出的那样,人工智能减少了雇主对涉及重复性任务的工作的需求,并对工资造成了下行压力。这种趋势扩大了国家、公司和员工之间的差距。

· 社会

微软的研究表明,在全球范围内,低收入和中等收入国家将更容易受到人工智能的负面影响,如自动化。这可能会增加这些国家的社会不平等和政治不稳定。

另一个问题是通过算法歧视使社会不平等现象长期存在。如上所述,人工智能可以产生偏见,知道如何识别和减轻有害的偏见,以及如何使用合成数据,将产生更公平的结果。

02

云计算和分布式基础设施技术

· 经济

云计算服务有望释放财政和人力资源,将节省下来的资金重新投资于企业。采用云计算技术的主要动力包括降低成本、可扩展性、灵活性、更有效地利用劳动力、数据分析和可访问性以及灾难恢复。它还可以减少劳动力和维护成本,因为系统是在另一个地方安置和运行的。云计算的可扩展性消除了单个企业持有储备能力的需要。

· 社会

云计算通过使用基于云的技术来推动社会公益,正在改变我们所处的世界。云使服务于社会公益成为可能,例如通过虚拟学习获得教育,利用数字教育进行创新,以及远程工作。它还为许多其他系统提供动力,例如利用智能云计算的智能农业以及自动驾驶汽车。

03

数字媒体与娱乐技术

· 社会

人工智能的进步,如合成声音、克隆声音、数字"复活"和深度伪造,对艺术家会造成影响。如果没有立法保护,一些艺术家将从他们的形象、肖像和声音的使用中获得较少的利润份额。

04

绿色科技

**·**经济

可再生能源发电和储存方面的进展将加速能源经济的去碳化,同时也会导致当前能源供应链的上下游发生重大转变。这是因为一些电力生产将更加分散,更接近终端市场,这一转变将为替代能源生产商和分销商创造新的机会。

· 社会

根据普华永道的分析,社会对能源生产商和制造商的压力越来越大,要求提供更多的可持续产品和服务。虽然各种绿色技术的发展有可能改善可持续性,并减少上述关键部门的环境影响,但这些发展带来的收益将需要与相关的社会、经济和环境问题相平衡。

05

医疗保健和医疗技术

· 经济

一些医疗技术公司专门帮助医疗服务部门变得更精简、更有效。同样,数据分析帮助医生在疾病变成慢性病之前识别和解决它们。提高医疗系统的效率是一个重要的商业机会,并释放出公共资源来改善医疗质量。

· 社会

技术可以简化医疗管理,释放资源用于一线护理。这在美国尤为重要,因为美国一直遭受着护士短缺的困扰。

06

移动无线技术

· 经济

新的无线技术将带来巨大的经济效益。据波士顿咨询(BCG)称,仅5G技术的部署预计将直接为美国国内生产总值(GDP)贡献4,000亿至5,000亿美元,并在2030年创造多达100万个就业岗位,仅占该技术实施总价值潜力的30%。

· 社会

移动无线技术的持续发展具有深远的社会影响。太赫兹频率、边缘计算、卫星和云可能会影响在线教育、远程工作、精准农业、交通和智能植入。这些发展有助于通过更紧密地整合供应链来提高作物产量、管理水资源短缺和减少浪费。

07

隐私与安全技术

· 经济

从商业角度来看,数据分析和其他形式的大数据已经成为一个相当大的市场,并且预计将继续增长。无论一家公司是利用其客户数据来支持其营销策略,还是改善客户保留率,它都有可能比那些不利用其数据的公司具有竞争优势。用户数据对那些免费的服务也很有价值,因为它可以被出售给其他公司用于营销目的。

在数据安全方面,随着更多的商业供应链和关键基础设施的要素被数字技术控制,安全故障的经济后果也越来越重要。

· 社会

当个人信息被用于商业或执法目的时,它对隐私和信任产生了影响。一个人的数据被收集并在第三方之间共享的越多,数据泄露和身份盗窃的风险就越大。此外,客户和用户很少有机会了解公司拥有他们的哪些数据,以及这些公司如何使用和分享他们的数据,尽管这些数据具有重要价值。

08

零售和电子商务技术

· 经济

虽然疫情导致了临时和永久性的商店关闭,但它也帮助加速了向全渠道购物模式的转变,为消费者提供了更多的购买选择,并在经济开始复苏时增加了消费者和零售商之间的潜在接触点。

· 社会

疫情造成的混乱加快了消费者与零售商和相关企业互动方式的变化步伐。最近,电子商务和先进的购物技术的普及使更多的本地零售商和餐馆在封锁期间通过共享送货服务、点击取货模式和加强使用社交商务渠道来经营。从长远来看,这些变化可能会导致价值的重新优先排序,这可能会成为新的零售模式的催化剂。

09

机器人与自主系统技术

· 经济

自动驾驶汽车代表了一个重要的新市场,预计到2035年,全球仅对自动驾驶汽车送货服务的投资就将达到1.1万亿美元。在2025年至2035年期间,美国经济有可能从包括道路安全和时间节约在内的直接经济影响中产生4.1万亿美元的总价值。

· 社会

RAS将扰乱就业市场,特别是在那些已经有相当规模的送货/卡车行业的经济体,因为这些行业的角色性质正在发生变化。对司机的需求预计会随着时间的推移而下降,而在编程、系统维护和车队管理方面会创造新的就业机会。

10

空间技术

· 经济

空间经济将推动新的、独特的市场,并通过引入新的技术和新的材料来源扰乱传统的地面市场。例如,空间资源的开采,可能为空间栖息地提供水,用于饮用、种植食物和辐射防护。

· 社会

随着越来越多的国家获得进入太空和相关技术的发展,目前的空间军事化情况越来越复杂。战略与国际研究中心每年编写一份《太空威胁评估报告》,讨论对美国太空系统的威胁,并强调太空的国际竞争。

原文如下:

成为VIP会员查看完整内容
42
0

图神经网络是一种对没有固定结构的数据进行建模的诱人方法。然而,让他们按预期工作多年来经历了一些曲折。在本次演讲中,我将介绍图挖掘团队在谷歌上使GNN有用的工作。我将专注于我们已经发现的挑战以及我们为它们开发的解决方案。具体来说,我将重点介绍一些工作,这些工作实现了更富表现力的图卷积、更健壮的模型和更好的图结构。

https://zenodo.org/record/6501456#.YnFRIOdBxPY

成为VIP会员查看完整内容
40
0
Top
微信扫码咨询专知VIP会员