Finite element methods typically require a high resolution to satisfactorily approximate micro and even macro patterns of an underlying physical model. This issue can be circumvented by appropriate multiscale strategies that are able to obtain reasonable approximations on under-resolved scales. In this paper, we study the implicit neural representation and propose a continuous super-resolution network as a correction strategy for multiscale effects. It can take coarse finite element data to learn both in-distribution and out-of-distribution high-resolution finite element predictions. Our highlight is the design of a local implicit transformer, which is able to learn multiscale features. We also propose Gabor wavelet-based coordinate encodings, which can overcome the bias of neural networks learning low-frequency features. Finally, perception is often preferred over distortion, so scientists can recognize the visual pattern for further investigation. However, implicit neural representation is known for its lack of local pattern supervision. We propose to use stochastic cosine similarities to compare the local feature differences between prediction and ground truth. It shows better performance on structural alignments. Our experiments show that our proposed strategy achieves superior performance as an in-distribution and out-of-distribution super-resolution strategy.


翻译:有限元方法通常需要高分辨率才能令人满意地逼近底层物理模型的微观乃至宏观模式。这一问题可通过适当的多尺度策略来规避,这些策略能够在欠分辨率尺度上获得合理的近似。本文研究了隐式神经表示,并提出一种连续超分辨率网络作为多尺度效应的校正策略。该网络能够利用粗粒度有限元数据,同时学习分布内与分布外的高分辨率有限元预测。本研究的亮点在于设计了局部隐式Transformer,该结构能够学习多尺度特征。我们还提出了基于Gabor小波的坐标编码方法,可克服神经网络偏向学习低频特征的局限性。最后,在科学可视化中感知效果常优先于失真度,以便研究者识别视觉模式进行深入分析。然而隐式神经表示缺乏局部模式监督机制。我们提出使用随机余弦相似度来比较预测值与真实值之间的局部特征差异,该方法在结构对齐任务中表现出更优性能。实验表明,所提出的策略作为分布内与分布外超分辨率方法均取得了卓越的性能。

0
下载
关闭预览

相关内容

【ICML2024】超图增强的双半监督图分类
专知会员服务
15+阅读 · 2024年5月9日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员