In this paper we suggest a moment matching method for quadratic-bilinear dynamical systems. Most system-theoretic reduction methods for nonlinear systems rely on multivariate frequency representations. Our approach instead uses univariate frequency representations tailored towards user-pre-defined families of inputs. Then moment matching corresponds to a one-dimensional interpolation problem, not to multi-dimensional interpolation as for the multivariate approaches, i.e., it also involves fewer interpolation frequencies to be chosen. Comparing to former contributions towards nonlinear model reduction with univariate frequency representations, our approach shows profound differences: Our derivation is more rigorous and general and reveals additional tensor-structured approximation conditions, which should be incorporated. Moreover, the proposed implementation exploits the inherent low-rank tensor structure, which enhances its efficiency. In addition, our approach allows for the incorporation of more general input relations in the state equations - not only affine-linear ones as in existing system-theoretic methods - in an elegant way. As a byproduct of the latter, also a novel modification for the multivariate methods falls off, which is able to handle more general input-relations.


翻译:在本文中,我们建议对二次线性下潜动力系统采用匹配方法。大多数非线性系统系统的系统理论减少方法都依赖于多变频率表示。我们的方法相反地使用针对用户预定义的投入型家族的单亚热频率表示法。然后,当次匹配与单维内插问题相对应,而不是与多变量方法的多维内插相对应,也就是说,它也涉及较少的内插频率。将以前对非线性模型减少的贡献与非线性频率表示法相比,我们的方法显示了深刻的差异:我们的衍生方法更加严格和一般,并揭示了额外的高压结构近似条件,应当纳入其中。此外,拟议的实施方法利用了内在的低位高压结构,提高了它的效率。此外,我们的方法允许将更普遍的输入关系纳入州方程,即它不仅包括直线性输入方法,而且以优雅的方式纳入现有的系统理论方法。作为后一种产品,对于多变量方法来说,也是一种新颖的修改,能够处理一般的输入方法。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【清华大学龙明盛副教授】迁移学习理论与算法,59页ppt
专知会员服务
80+阅读 · 2020年11月27日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
0+阅读 · 2021年7月27日
Arxiv
3+阅读 · 2018年12月21日
VIP会员
相关VIP内容
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【清华大学龙明盛副教授】迁移学习理论与算法,59页ppt
专知会员服务
80+阅读 · 2020年11月27日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员