This paper considers an enhancement of the classical iterated penalty Picard (IPP) method for the incompressible Navier-Stokes equations, where we restrict our attention to $O(1)$ penalty parameter, and Anderson acceleration (AA) is used to significantly improve its convergence properties. After showing the fixed point operator associated with the IPP iteration is Lipschitz continuous and Lipschitz continuously (Frechet) differentiable, we apply a recently developed general theory for AA to conclude that IPP enhanced with AA improves its linear convergence rate by the gain factor associated with the underlying AA optimization problem. Results for several challenging numerical tests are given and show that IPP with penalty parameter 1 and enhanced with AA is a very effective solver.


翻译:本文考虑了对不可压缩的纳维埃-斯托克斯方程式的典型迭代惩罚Picard(IPP)方法的强化,我们在此将注意力限制在O(1)美元罚款参数上,安德森加速(AA)用于显著改善其趋同性。 在展示了与IPP迭代相关的固定点操作员是Lipschitz 连续的,而Lipschitz(Frechet) 持续(Frechet) 不同之后,我们运用了最近开发的AAA通用理论来得出结论:IPP通过与AA优化问题相关的增益系数提高了其线性趋同率。 给出了几项具有挑战性的数字测试的结果,并表明带有处罚参数1的IPP是一个非常有效的解决方案。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
25+阅读 · 2021年4月2日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
61+阅读 · 2020年12月11日
专知会员服务
59+阅读 · 2020年3月19日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
已删除
将门创投
3+阅读 · 2019年1月29日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月12日
Arxiv
4+阅读 · 2021年7月1日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
25+阅读 · 2021年4月2日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
61+阅读 · 2020年12月11日
专知会员服务
59+阅读 · 2020年3月19日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
相关资讯
已删除
将门创投
3+阅读 · 2019年1月29日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员