期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
适用于任意网格的大规模并行CFD计算框架PHengLEI 被引量:27
1
作者 赵钟 张来平 +3 位作者 何磊 何先耀 郭永恒 徐庆新 《计算机学报》 EI CSCD 北大核心 2019年第11期2368-2383,共16页
针对计算流体力学(Computational Fluid Dynamics,CFD)大规模并行计算的需要,我们设计了适用于任意网格类型的并行计算框架风雷(PHengLEI)软件,同时支持结构网格、非结构网格和重叠网格.为了实现并行通信与网格类型无关且与物理求解器... 针对计算流体力学(Computational Fluid Dynamics,CFD)大规模并行计算的需要,我们设计了适用于任意网格类型的并行计算框架风雷(PHengLEI)软件,同时支持结构网格、非结构网格和重叠网格.为了实现并行通信与网格类型无关且与物理求解器开发者隔离,我们设计了通用的通信模式和一种基于网格块的“三合一”的数据交换模式,即将多块结构网格块、并行分区网格块和结构/非结构网格块间的交界面数据完全标准化为数据底层后,在数据底层统一进行交换,使得数据交换不依赖于网格类型和数据类型,从而实现任意网格类型并行通信模式的统一.作为气动数据生产的“数值风洞”,要求代码将并行隔离至底层,为此针对主流计算机系统的特点,设计了粗粒度MPI/OpenMP混合并行模式,领域专家只需关注求解器开发而无需关注并行通信,在提高可移植性、可扩展性的同时尽可能兼顾封装性.针对大规模并行计算的实际工程需求,设计了并行分区、大规模并行文件存储模式,以缩短前置处理和文件I/O时间.最后,分别基于结构网格、非结构网格和重叠网格,给出了工程应用领域的标模算例,以说明PHengLEI并行计算框架对不同网格类型的适应性.大规模网格测试结果表明,国产定制集群上16.38万核并行效率达83%以上,“天河二号”上近10万核并行效率达95%以上,展现了较好的可扩展性和并行计算效率. 展开更多
关键词 并行计算 mpi/openmp混合并行 CFD并行计算框架 PHengLEI 风雷软件 HyperFLOW
下载PDF
非结构CFD软件MPI+OpenMP混合并行及超大规模非定常并行计算的应用 被引量:8
2
作者 王年华 常兴华 +1 位作者 赵钟 张来平 《航空学报》 EI CAS CSCD 北大核心 2020年第10期185-199,共15页
常规工程应用中,非定常数值模拟(如多体分离)的计算量十分巨大,如果为了达到更高的计算精度,加密网格或者采用高精度方法将会使得计算量进一步增大,导致非定常数值模拟在CFD工程应用中成为十分耗时和昂贵的工作,因此,提高非定常数值模... 常规工程应用中,非定常数值模拟(如多体分离)的计算量十分巨大,如果为了达到更高的计算精度,加密网格或者采用高精度方法将会使得计算量进一步增大,导致非定常数值模拟在CFD工程应用中成为十分耗时和昂贵的工作,因此,提高非定常数值模拟的可扩展性和计算效率十分必要。为充分发挥既有分布内存又有共享内存的多核处理器的性能和效率优势,对作者团队开发的非结构网格二阶精度有限体积CFD软件(HyperFLOW)进行了混合并行改造,在计算节点间采用MPI消息传递机制,在节点内采用OpenMP共享内存的MPI+OpenMP混合并行策略。首先分别实现了两种粒度(粗粒度和细粒度)的混合并行,并基于国产in-house集群采用CRM标模(约4000万网格单元)定常湍流算例对两种混合并行模式进行了测试和比较。结果表明,粗粒度在进程数和分区数较少的小规模并行时具有效率优势,16线程时效率较高;而细粒度混合并行在大规模并行计算时具有优势,8线程时效率较高。其次,验证了混合并行在非定常计算情况下的可扩展性,采用机翼外挂物投放标模算例,分别生成3.6亿和28.8亿非结构重叠网格,采用对等的(P2P)网格读入模式和优化的重叠网格隐式装配策略,网格读入和重叠网格装配耗时仅需数十秒;采用3.6亿网格,完成了非定常状态效率测试及非定常分离过程的湍流流场计算,在in-house集群上12288核并行效率达到90%(以768核为基准),在天河2号上12288核并行效率达到70%(以384核为基准),数值模拟结果与试验结果符合良好。最后,在inhouse集群上采用28.8亿非结构重叠网格进行了4.9万核的并行效率测试,结果显示,4.9万核并行效率达到55.3%(以4096核为基准)。 展开更多
关键词 mpi+openmp混合并行 并行效率 计算流体力学 重叠网格 非定常计算
原文传递
OpenFoam中多面体网格生成的MPI+OpenMP混合并行方法 被引量:2
3
作者 刘江 刘文博 张矩 《计算机科学》 CSCD 北大核心 2022年第3期3-10,共8页
网格生成是计算流体力学中非常重要的一环,大规模数值模拟过程中对网格精度要求的提高会导致网格生成所耗的时间增加.文中基于OpenFoam开源软件中的网格生成算法,主要研究多面体网格的并行生成,并提出OpenMP和MPI混合并行的多面体网格... 网格生成是计算流体力学中非常重要的一环,大规模数值模拟过程中对网格精度要求的提高会导致网格生成所耗的时间增加.文中基于OpenFoam开源软件中的网格生成算法,主要研究多面体网格的并行生成,并提出OpenMP和MPI混合并行的多面体网格生成方法.通过理论分析得到,使用混合并行方法生成相同质量的网格时,混合并行方法生成网格的时间消耗随着线程数量和网格单元数量的增加而减少.3组使用不同求解器的数值模拟实验结果表明,该混合并行方法不但可以保证生成网格的质量---可以正常进行数值计算模拟且模拟结果与原方法相比几乎没有差别,而且生成同样质量与数量网格的耗时最多可以缩短至未使用OpenMP并行方法之耗时的1/4以内. 展开更多
关键词 计算流体力学 OPENFOAM 多面体网格生成 mpi+openmp混合并行 并行效率
下载PDF
基于CMP多核集群的混合并行编程技术研究 被引量:1
4
作者 王文义 王春霞 王杰 《计算机科学》 CSCD 北大核心 2014年第2期19-22,共4页
高性能科学计算(High Performance Science Computing,简称HPC)是验证某些理论和测试计算机系统处理能力的一种有效的实验手段。鉴于目前CMP(Chip Multi-processor)多核集群已变得越来越普及,尝试对由MPI和OpenMP两种不同并行编程技术... 高性能科学计算(High Performance Science Computing,简称HPC)是验证某些理论和测试计算机系统处理能力的一种有效的实验手段。鉴于目前CMP(Chip Multi-processor)多核集群已变得越来越普及,尝试对由MPI和OpenMP两种不同并行编程技术构成的混合编程模式做一些实验性的研究。通过对程序执行时间和加速比的实验数据分析,可以看出在多核和多节点集群上采用细粒度的混合并行编程方法较单一使用MPI并行编程方法更加合理和高效,也更能体现出系统硬软件的特性与优势。 展开更多
关键词 高性能计算 CMP多核集群 墙钟时间 mpi+openmp混合并行编程
下载PDF
多群粒子输运问题在多核集群系统上的混合并行计算
5
作者 迟利华 刘杰 +3 位作者 龚春叶 徐涵 蒋杰 胡庆丰 《计算机工程与科学》 CSCD 北大核心 2009年第11期94-97,共4页
本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个O... 本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个OpenMP线程,计算结点内针对能群进行多线程并行计算。数值测试结果表明,非结构网格上的粒子输运问题的混合并行计算能较好地匹配多核机群系统的硬件结构,具有良好的可扩展性,可以扩展到1024个CPU核。 展开更多
关键词 mpi/openmp混合并行计算 粒子输运 Sn方法 多核机群系统
下载PDF
MPI+OpenMP算法在三维可压缩流场计算中的应用 被引量:1
6
作者 许啸 王学德 谭俊杰 《航空计算技术》 2011年第6期32-36,共5页
在多核CPU集群并行体系结构下,采用MPI+OpenMP的混合并行算法,对可压缩流场进行数值模拟,并在计算时间上与MPI算法进行比较。流场计算的控制方程为Euler方程,空间离散采用Jameson中心差分格式,时间离散采用R-K法,并行模式采用Master/Sl... 在多核CPU集群并行体系结构下,采用MPI+OpenMP的混合并行算法,对可压缩流场进行数值模拟,并在计算时间上与MPI算法进行比较。流场计算的控制方程为Euler方程,空间离散采用Jameson中心差分格式,时间离散采用R-K法,并行模式采用Master/Slave模式。通过对M6机翼和某弹丸采用多种并行方法进行流场的数值模拟,得出MPI+OpenMP混合算法在一定条件下具有高效性的结论。 展开更多
关键词 有限体积法 并行计算 进程 线程 mpi+openmp混合算法
下载PDF
基于二维结构化网格的可压缩流体并行算法研究 被引量:1
7
作者 皇甫永硕 刘杰 龚春叶 《计算机工程与科学》 CSCD 北大核心 2017年第9期1602-1609,共8页
基于二维/轴对称高精度可压缩多相流计算流体力学方法 MuSiC-CCASSIM的结构化网格部分,设计了区域并行分解方法;针对各处理器边界数据的通信,设计了阻塞式通信与非阻塞式通信并行算法;为了减少通信开销,设计了MPI/OpenMP混合并行优化算... 基于二维/轴对称高精度可压缩多相流计算流体力学方法 MuSiC-CCASSIM的结构化网格部分,设计了区域并行分解方法;针对各处理器边界数据的通信,设计了阻塞式通信与非阻塞式通信并行算法;为了减少通信开销,设计了MPI/OpenMP混合并行优化算法。在天河二号超级计算机上进行了测试,每个核固定网格规模为625*250,最多调用8 192核。测试数据表明,采用MPI/OpenMP混合并行算法、纯MPI非阻塞式通信并行算法和纯MPI阻塞式通信并行算法的程序的平均并行效率分别达到86%、83%和77%,三种算法都具有良好的可扩展性。 展开更多
关键词 并行计算 阻塞式通信 非阻塞式通信 mpi/openmp混合编程 天河计算机
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部