期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
MPI+OpenMP算法在三维可压缩流场计算中的应用 被引量:1
1
作者 许啸 王学德 谭俊杰 《航空计算技术》 2011年第6期32-36,共5页
在多核CPU集群并行体系结构下,采用MPI+OpenMP的混合并行算法,对可压缩流场进行数值模拟,并在计算时间上与MPI算法进行比较。流场计算的控制方程为Euler方程,空间离散采用Jameson中心差分格式,时间离散采用R-K法,并行模式采用Master/Sl... 在多核CPU集群并行体系结构下,采用MPI+OpenMP的混合并行算法,对可压缩流场进行数值模拟,并在计算时间上与MPI算法进行比较。流场计算的控制方程为Euler方程,空间离散采用Jameson中心差分格式,时间离散采用R-K法,并行模式采用Master/Slave模式。通过对M6机翼和某弹丸采用多种并行方法进行流场的数值模拟,得出MPI+OpenMP混合算法在一定条件下具有高效性的结论。 展开更多
关键词 有限体积法 并行计算 进程 线程 mpi+openmp混合算法
下载PDF
一种利用Nystrom离散与FFT快速褶积的散射地震波并行计算方法
2
作者 徐杨杨 孙建国 商耀达 《地球物理学报》 SCIE EI CAS CSCD 北大核心 2021年第8期2877-2887,共11页
利用数值方法解Lippermann-Schwinger(L-S)方程的主要困难在于系数矩阵存储和线性方程组求解.这主要是因为L-S方程的积分部分是一个空间褶积,在离散后将导致一个满秩矩阵,进而形成一个大型或超大型代数方程组.因此,在利用L-S解决地震波... 利用数值方法解Lippermann-Schwinger(L-S)方程的主要困难在于系数矩阵存储和线性方程组求解.这主要是因为L-S方程的积分部分是一个空间褶积,在离散后将导致一个满秩矩阵,进而形成一个大型或超大型代数方程组.因此,在利用L-S解决地震波散射问题时,一般是利用散射级数法而非数值方法.然而,散射级数法的计算精度和收敛性强烈地依赖于速度扰动的强度,而克服这种依赖性的一个可能的途径就是对现有的数值方法进行改进或是建立新的数值求解方案.在这种思想指导下,首先对L-S方程进行改写,得到一个与原L-S方程等价的积分方程(等价L-S方程).然后,对等价L-S方程进行逐点归一化处理,并利用Nystrom法对经归一化处理的等价L-S方程(归一化等价L-S方程)进行离散,并用FFT计算空间褶积.之所以这样选择是由于归一化等价L-S方程经Nystrom法离散生成的系数阵为一个Toeplitz阵,可利用其Toeplitz性质降低存储空间;而FFT可以将矩矢空间褶积转化为乘积,且积分核部分只要计算一次即可.进一步,为节约正演计算时间,设计了进程级和线程级相结合的MPI+OpenMP并行模式.数值试验表明,与传统的积分方程数值算法相比,利用等价L-S方程、Nystrom离散和FFT快速褶积的计算方案可极大地降低存储需求,进而在保证精度的同时提高计算效率. 展开更多
关键词 L-S积分方程 快速傅里叶变换 Nystrom法 mpi+openmp并行
下载PDF
适用于任意网格的大规模并行CFD计算框架PHengLEI 被引量:27
3
作者 赵钟 张来平 +3 位作者 何磊 何先耀 郭永恒 徐庆新 《计算机学报》 EI CSCD 北大核心 2019年第11期2368-2383,共16页
针对计算流体力学(Computational Fluid Dynamics,CFD)大规模并行计算的需要,我们设计了适用于任意网格类型的并行计算框架风雷(PHengLEI)软件,同时支持结构网格、非结构网格和重叠网格.为了实现并行通信与网格类型无关且与物理求解器... 针对计算流体力学(Computational Fluid Dynamics,CFD)大规模并行计算的需要,我们设计了适用于任意网格类型的并行计算框架风雷(PHengLEI)软件,同时支持结构网格、非结构网格和重叠网格.为了实现并行通信与网格类型无关且与物理求解器开发者隔离,我们设计了通用的通信模式和一种基于网格块的“三合一”的数据交换模式,即将多块结构网格块、并行分区网格块和结构/非结构网格块间的交界面数据完全标准化为数据底层后,在数据底层统一进行交换,使得数据交换不依赖于网格类型和数据类型,从而实现任意网格类型并行通信模式的统一.作为气动数据生产的“数值风洞”,要求代码将并行隔离至底层,为此针对主流计算机系统的特点,设计了粗粒度MPI/OpenMP混合并行模式,领域专家只需关注求解器开发而无需关注并行通信,在提高可移植性、可扩展性的同时尽可能兼顾封装性.针对大规模并行计算的实际工程需求,设计了并行分区、大规模并行文件存储模式,以缩短前置处理和文件I/O时间.最后,分别基于结构网格、非结构网格和重叠网格,给出了工程应用领域的标模算例,以说明PHengLEI并行计算框架对不同网格类型的适应性.大规模网格测试结果表明,国产定制集群上16.38万核并行效率达83%以上,“天河二号”上近10万核并行效率达95%以上,展现了较好的可扩展性和并行计算效率. 展开更多
关键词 并行计算 mpi/openmp混合并行 CFD并行计算框架 PHengLEI 风雷软件 HyperFLOW
下载PDF
多群粒子输运问题在多核集群系统上的混合并行计算
4
作者 迟利华 刘杰 +3 位作者 龚春叶 徐涵 蒋杰 胡庆丰 《计算机工程与科学》 CSCD 北大核心 2009年第11期94-97,共4页
本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个O... 本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个OpenMP线程,计算结点内针对能群进行多线程并行计算。数值测试结果表明,非结构网格上的粒子输运问题的混合并行计算能较好地匹配多核机群系统的硬件结构,具有良好的可扩展性,可以扩展到1024个CPU核。 展开更多
关键词 mpi/openmp混合并行计算 粒子输运 Sn方法 多核机群系统
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部