Conservation properties of iterative methods applied to implicit finite volume discretizations of nonlinear conservation laws are analyzed. It is shown that any consistent multistep or Runge-Kutta method is globally conservative. Further, it is shown that Newton's method, Krylov subspace methods and pseudo-time iterations are globally conservative while the Jacobi and Gauss-Seidel methods are not in general. If pseudo-time iterations using an explicit Runge-Kutta method are applied to a locally conservative discretization, then the resulting scheme is also locally conservative. However, the corresponding numerical flux can be inconsistent with the conservation law. We prove an extension of the Lax-Wendroff theorem, which reveals that numerical solutions based on these methods converge to weak solutions of a modified conservation law where the flux function is multiplied by a particular constant. This constant depends on the choice of Runge-Kutta method but is independent of both the conservation law and the discretization. Consistency is maintained by ensuring that this constant equals unity and a strategy for achieving this is presented. Experiments show that this strategy improves the convergence rate of the pseudo-time iterations.


翻译:对非线性养护法的隐性量分解应用迭代方法的保存特性进行了分析,显示任何一致的多步或龙格-库塔方法都是全球保守的。此外,还显示牛顿方法、 Krylov 子空间方法和假时间迭代是全球保守的,而雅各比和高斯-赛德尔方法不是一般的。如果使用明确的龙格-库塔方法的假时间迭代适用于当地保守的分解,则由此产生的办法也是当地保守的。然而,相应的数字通量可能与保护法不一致。我们证明,基于这些方法的数字解决方案与经修改的保全法的薄弱解决方案相交汇,而通性函数乘以一个特定的常数。这个常数取决于Runge-库塔方法的选择,但与保存法和离散法无关。通过确保这一常数的一致性和实现这一战略得以维持。实验显示,以这些方法为基础的数字解决方案会提高假时的趋同率。

0
下载
关闭预览

相关内容

【KDD2021】图神经网络,NUS- Xavier Bresson教授
专知会员服务
62+阅读 · 2021年8月20日
专知会员服务
14+阅读 · 2021年5月21日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
【经典书】贝叶斯编程,378页pdf,Bayesian Programming
专知会员服务
244+阅读 · 2020年5月18日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月18日
Arxiv
0+阅读 · 2021年8月17日
VIP会员
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
基于 Carsim 2016 和 Simulink的无人车运动控制联合仿真(四)
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员