Applications in machine learning, optimization, and control require the sequential selection of a few system elements, such as sensors, data, or actuators, to optimize the system performance across multiple time steps. However, in failure-prone and adversarial environments, sensors get attacked, data get deleted, and actuators fail. Thence, traditional sequential design paradigms become insufficient and, in contrast, resilient sequential designs that adapt against system-wide attacks, deletions, or failures become important. In general, resilient sequential design problems are computationally hard. Also, even though they often involve objective functions that are monotone and (possibly) submodular, no scalable approximation algorithms are known for their solution. In this paper, we provide the first scalable algorithm, that achieves the following characteristics: system-wide resiliency, i.e., the algorithm is valid for any number of denial-of-service attacks, deletions, or failures; adaptiveness, i.e., at each time step, the algorithm selects system elements based on the history of inflicted attacks, deletions, or failures; and provable approximation performance, i.e., the algorithm guarantees for monotone objective functions a solution close to the optimal. We quantify the algorithm's approximation performance using a notion of curvature for monotone (not necessarily submodular) set functions. Finally, we support our theoretical analyses with simulated experiments, by considering a control-aware sensor scheduling scenario, namely, sensing-constrained robot navigation.


翻译:在机器学习、优化和控制中,应用机器学习、优化和控制需要先后选择几个系统元素,例如传感器、数据或动因器,以在多个时间步骤中优化系统性能。然而,在易出故障和敌对环境中,传感器受到攻击,数据被删除,动因失败。因此,传统的顺序设计范式变得不足,反之,适应全系统攻击、删除或失败的具有弹性的顺序设计也变得重要。一般来说,具有弹性的顺序设计问题是计算困难的。此外,尽管它们往往涉及单调和(可能)亚调调和(可能)子调和(可能)次调制的客观功能,但对于这些元素的解决方案却并不知道可缩放的近似算法。在本文件中,我们提供了第一个可伸缩的算法,这些算法具有以下特点:全系统的弹性,即,即,对任何拒绝系统攻击、删除或失败的顺序设计都有效;适应性,也就是说,在每一时间步骤中,算法根据实施攻击的历史、删除或失败而选择的系统要素;以及近似近似近似近似性近比值的逻辑功能,即使用最优的逻辑分析,我们最优的轨道的等级的轨道分析,我们定数级变数级变数的计算结果。我们用最优的计算学定的计算结果定数的计算功能,用最优的计算,用最优的计算学定数的计算结果的计算结果定数的计算,我们定结果的计算,用最优的计算法,用最优的计算法,用最优的计算结果的计算。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
专知会员服务
61+阅读 · 2020年3月19日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
10+阅读 · 2018年5月2日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年2月19日
Arxiv
0+阅读 · 2021年2月17日
Arxiv
0+阅读 · 2021年2月16日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
10+阅读 · 2018年5月2日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员