In this paper, we consider the development of efficient numerical methods for linear transport equations with random parameters and under the diffusive scaling. We extend to the present case the bi-fidelity stochastic collocation method introduced in [33,50,51]. For the high-fidelity transport model, the asymptotic-preserving scheme [29] is used for each stochastic sample. We employ the simple two-velocity Goldstein-Taylor equation as low-fidelity model to accelerate the convergence of the uncertainty quantification process. The choice is motivated by the fact that both models, high fidelity and low fidelity, share the same diffusion limit. Speed-up is achieved by proper selection of the collocation points and relative approximation of the high-fidelity solution. Extensive numerical experiments are conducted to show the efficiency and accuracy of the proposed method, even in non diffusive regimes, with empirical error bound estimations as studied in [16].


翻译:在本文中,我们考虑为具有随机参数的线性运输方程制定高效的数字方法,并在差异缩放范围内进行。我们把[33,50,51] 中引入的双性切合合用法推广到本案中。对于高不洁运输模式,对每个随机样本都采用非同步运输方程[29] 。我们将简单的双速金斯坦-泰勒方程作为低纤维化模式,以加速不确定性量化过程的趋同。这种选择的动机是两种模型,即高度忠诚和低忠诚,都具有相同的扩散限制。通过适当选择合用合用点和高不洁溶方的相对近似来加快速度。我们进行了广泛的数字实验,以显示拟议方法的效率和准确性,即使在非差异化制度中也是如此,并有16[16]中研究的经验错误约束性估计。

0
下载
关闭预览

相关内容

专知会员服务
40+阅读 · 2021年6月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关VIP内容
专知会员服务
40+阅读 · 2021年6月10日
Top
微信扫码咨询专知VIP会员