Solving stiff ordinary differential equations (StODEs) requires sophisticated numerical solvers, which are often computationally expensive. In general, traditional explicit time integration schemes with restricted time step sizes are not suitable for StODEs, and one must resort to costly implicit methods. On the other hand, state-of-the-art machine learning based methods, such as Neural ODE, poorly handle the timescale separation of various elements of the solutions to StODEs, while still requiring expensive implicit/explicit integration at inference time. In this work, we propose a linear latent network (LiLaN) approach in which the dynamics in the latent space can be integrated analytically, and thus numerical integration is completely avoided. At the heart of LiLaN are the following key ideas: i) two encoder networks to encode the initial condition together with parameters of the ODE to the slope and the initial condition for the latent dynamics, respectively. Since the latent dynamics, by design, are linear, the solution can be evaluated analytically; ii) a neural network to map the physical time to latent times, one for each latent variable. Finally, iii) a decoder network to decode the latent solution to the physical solution at the corresponding physical time. We provide a universal approximation theorem for the proposed LiLaN approach, showing that it can approximate the solution of any stiff nonlinear system on a compact set to any degree of accuracy epsilon. We also show an interesting fact that the dimension of the latent dynamical system in LiLaN is independent of epsilon. Numerical results on the "Robertson Stiff Chemical Kinetics Model," "Plasma Collisional-Radiative Model," and "Allen-Cahn" and "Cahn-Hilliard" PDEs suggest that LiLaN outperformed state-of-the-art machine learning approaches for handling stiff ordinary and partial differential equations.


翻译:求解刚性常微分方程(StODEs)需要复杂的数值求解器,这通常计算成本高昂。一般而言,具有受限时间步长的传统显式时间积分方案不适用于StODEs,必须采用计算代价较高的隐式方法。另一方面,基于机器学习的最新方法(如神经ODE)难以处理StODEs解中不同元素的时间尺度分离,且在推理时仍需要昂贵的隐式/显式积分。在本研究中,我们提出了一种线性潜在网络(LiLaN)方法,其中潜在空间中的动力学可解析积分,从而完全避免了数值积分。LiLaN的核心包含以下关键思想:i)两个编码器网络,分别将初始条件与ODE参数编码为潜在动力学的斜率和初始条件。由于潜在动力学被设计为线性,其解可解析求解;ii)一个神经网络,将物理时间映射到潜在时间(每个潜在变量对应一个)。最后,iii)一个解码器网络,将潜在解解码为对应物理时间的物理解。我们为所提出的LiLaN方法提供了一个通用逼近定理,证明其可在紧集上以任意精度ε逼近任何刚性非线性系统的解。我们还揭示了一个有趣的事实:LiLaN中潜在动力系统的维度与ε无关。在“Robertson刚性化学动力学模型”、“等离子体碰撞-辐射模型”以及“Allen-Cahn”和“Cahn-Hilliard”偏微分方程上的数值结果表明,LiLaN在处理刚性常微分方程和偏微分方程方面优于当前最先进的机器学习方法。

0
下载
关闭预览

相关内容

【ICML2022】Sharp-MAML:锐度感知的模型无关元学习
专知会员服务
17+阅读 · 2022年6月10日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
25+阅读 · 2021年5月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员