Parametric regularity of discretizations of flux vector fields satisfying a balance law is studied under some assumptions on a random parameter that links the flux with an unknown primal variable (often through a constitutive law). In the primary example of the stationary diffusion equation, the parameter corresponds to the inverse of the diffusivity. The random parameter is modeled here as a Gevrey-regular random field. Specific focus is on random fields expressible as functions of countably infinite sequences of independent random variables, which may be uniformly or normally distributed. Quasi-Monte Carlo (QMC) error bounds for some quantity of interest that depends on the flux are then derived using the parametric regularity. It is shown that the QMC method converges optimally if the quantity of interest depends continuously on the primal variable, its flux, or its gradient. A series of assumptions are introduced with the goal of encompassing a broad class of discretizations by various finite element methods. The assumptions are verified for the diffusion equation discretized using conforming finite elements, mixed methods, and hybridizable discontinuous Galerkin schemes. Numerical experiments confirm the analytical findings, highlighting the role of accurate flux approximation in QMC methods.


翻译:在关于连接通量与未知原始变量(通常通过本构关系)的随机参数的一些假设下,研究了满足平衡律的通量向量场离散化的参数正则性。以稳态扩散方程为主要示例,该参数对应于扩散率的倒数。随机参数在此被建模为Gevrey正则随机场。特别关注可表示为可数无限序列独立随机变量(可能服从均匀分布或正态分布)函数的随机场。随后利用参数正则性推导了依赖于通量的某些感兴趣量的拟蒙特卡洛(QMC)误差界。研究表明,若感兴趣量连续依赖于原始变量、其通量或其梯度,则QMC方法可实现最优收敛。引入了一系列假设,旨在涵盖各类有限元方法离散化的广泛类别。这些假设在采用协调有限元、混合方法及可杂交间断Galerkin格式离散的扩散方程中得到了验证。数值实验证实了分析结果,突显了精确通量逼近在QMC方法中的关键作用。

0
下载
关闭预览

相关内容

牛津大学最新《计算代数拓扑》笔记书,107页pdf
专知会员服务
44+阅读 · 2022年2月17日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
概率图模型体系:HMM、MEMM、CRF
机器学习研究会
30+阅读 · 2018年2月10日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
VIP会员
相关资讯
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
概率图模型体系:HMM、MEMM、CRF
机器学习研究会
30+阅读 · 2018年2月10日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关论文
Arxiv
16+阅读 · 2022年5月17日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员