In this work we propose an efficient parallelization of multiple-precision Taylor series method with variable stepsize and fixed order. For given level of accuracy the optimal variable stepsize determines higher order of the method than in the case of optimal fixed stepsize. Although the used order of the method is greater then that in the case of fixed stepsize, and hence the computational work per step is greater, the reduced number of steps gives less overall work. Also the greater order of the method is beneficial in the sense that it increases the parallel efficiency. As a model problem we use the paradigmatic Lorenz system. With 256 CPU cores in Nestum cluster, Sofia, Bulgaria, we succeed to obtain a correct reference solution in the rather long time interval - [0,11000]. To get this solution we performed two large computations: one computation with 4566 decimal digits of precision and 5240-th order method, and second computation for verification - with 4778 decimal digits of precision and 5490-th order method.


翻译:在这项工作中,我们建议以可变步骤和固定顺序对多精度泰勒系列方法进行高效的平行。根据给定的精确度,最佳可变步骤决定了方法的更近顺序,而不是最佳固定步骤。虽然这种方法的用序比用定的阶梯确定得更高。在固定的阶梯化的情况下,方法的用序比用法的用序要高,因此每步的计算工作要大,因此,每步的减序使整体工作较少。此外,方法的更大顺序有利于提高平行效率。作为一个示范问题,我们使用了范式Lorenz系统。在保加利亚索菲亚的内斯图姆集群中,256个CPU核心在相当长的时间间隔里成功地获得了正确的参考解决方案 — [0,1000]。为了获得这一解决方案,我们进行了两次大型计算:一次计算,4,5,566位小数的精确数和5,240个顺序方法,以及第二次计算核查,4,778个十位精确数和5490个顺序方法。

0
下载
关闭预览

相关内容

PARCO:Parallel Computing。 Explanation:并行计算。 Publisher:Elsevier。 SIT:http://dblp.uni-trier.de/db/conf/parco/
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
49+阅读 · 2020年8月25日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
5+阅读 · 2018年7月25日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Arxiv
3+阅读 · 2018年10月5日
Arxiv
8+阅读 · 2018年1月30日
VIP会员
相关VIP内容
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
49+阅读 · 2020年8月25日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
5+阅读 · 2018年7月25日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Top
微信扫码咨询专知VIP会员