To shift the computational burden from real-time to offline in delay-critical power systems applications, recent works entertain the idea of using a deep neural network (DNN) to predict the solutions of the AC optimal power flow (AC-OPF) once presented load demands. As network topologies may change, training this DNN in a sample-efficient manner becomes a necessity. To improve data efficiency, this work utilizes the fact OPF data are not simple training labels, but constitute the solutions of a parametric optimization problem. We thus advocate training a sensitivity-informed DNN (SI-DNN) to match not only the OPF optimizers, but also their partial derivatives with respect to the OPF parameters (loads). It is shown that the required Jacobian matrices do exist under mild conditions, and can be readily computed from the related primal/dual solutions. The proposed SI-DNN is compatible with a broad range of OPF solvers, including a non-convex quadratically constrained quadratic program (QCQP), its semidefinite program (SDP) relaxation, and MATPOWER; while SI-DNN can be seamlessly integrated in other learning-to-OPF schemes. Numerical tests on three benchmark power systems corroborate the advanced generalization and constraint satisfaction capabilities for the OPF solutions predicted by an SI-DNN over a conventionally trained DNN, especially in low-data setups.


翻译:为了将计算负担从实时转换到延迟临界电源系统应用中的离线计算负担,最近的工作设想了使用深神经网络(DNN)来预测空调最佳电流的解决方案(AC-OPF)一旦出现负载需求后,即可预测这些解决方案。随着网络地形的变化,以抽样效率方式培训DNN就势在必行。为了提高数据效率,这项工作利用了OPF数据这个简单的培训标签,它构成了模拟优化问题的解决方案。因此,我们主张培训一个敏感知情的DNNN(SI-DNN),不仅匹配OPF优化器,而且还匹配其部分衍生物与OPF参数(负荷)相对应。 这表明所需要的Jacobian矩阵确实存在于温和常规条件下,并且可以很容易地从相关的原始/虚拟解决方案中进行计算。 拟议的SI-DNNNN与广泛的O解算器兼容,其中包括一个非convex二次受限的二次受限四方程式(QQP),其半成型程序(SDP)在OPFF参数参数上进行弹性调整,以及IMTPO-S-S-SIMFS-stilstal Instal Instilstal Institalstalstalstalstal Testal Testable supal 3 comstal comstal commal compal compal compal compal compal compal commal commal commessal commessal ex ex ex ex compal commessal ex ex ex compal compal compal compal commessal ex ex ex ex ex ex ex ex ex exal compal sal compal 3 compal 3 compal compal 3 compal compal compal commal compal compal compal 3 3 compal compal compal compal compal ex ex ex ex ex ex ex ex ex ex ex ex

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年6月12日
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
62+阅读 · 2020年2月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
160+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
0+阅读 · 2022年1月14日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
14+阅读 · 2021年7月20日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
7+阅读 · 2018年12月26日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关资讯
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
相关论文
Arxiv
0+阅读 · 2022年1月14日
Arxiv
7+阅读 · 2021年10月19日
Arxiv
14+阅读 · 2021年7月20日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
7+阅读 · 2018年12月26日
A Multi-Objective Deep Reinforcement Learning Framework
Top
微信扫码咨询专知VIP会员