«上一篇 下一篇»
  计算机工程  2022, Vol. 48 Issue (12): 45-53  DOI: 10.19678/j.issn.1000-3428.0065567
0

引用本文  

许乐, 安虹, 陈俊仕, 等. 基于神威·太湖之光的非结构网格计算加速算法[J]. 计算机工程, 2022, 48(12), 45-53. DOI: 10.19678/j.issn.1000-3428.0065567.
XU Le, AN Hong, CHEN Junshi, et al. Unstructured Grid Computing Acceleration Algorithm Based on Sunway TaihuLight[J]. Computer Engineering, 2022, 48(12), 45-53. DOI: 10.19678/j.issn.1000-3428.0065567.

基金项目

国家自然科学基金“面向E级计算系统的光滑粒子流体动力学高可扩展并行计算框架”(62102389)

通信作者

安虹(通信作者),教授、博士、博士生导师

作者简介

许乐(1997—),男,硕士研究生,主研方向为并行计算;
陈俊仕,特任副研究员、博士;
张鹏飞,硕士研究生;
武铮,博士研究生

文章历史

收稿日期:2022-08-22
修回日期:2022-09-28
基于神威·太湖之光的非结构网格计算加速算法
许乐 , 安虹 , 陈俊仕 , 张鹏飞 , 武铮     
中国科学技术大学 计算机科学与技术学院, 合肥 230026
摘要:在国产异构众核平台神威·太湖之光上的非结构网格计算具有稀疏存储、离散访存、数据依赖等特点,严重制约了众核处理器的性能发挥。为解决稀疏存储和离散访存问题,提出一种N阶对角染色算法,以有效平衡主从核计算并利用从核将全局访存转化为LDM访问。针对数据依赖造成的计算竞争问题,采用自适应和无依赖的任务划分方法,避免并行计算时的数据冲突。为对处理器架构和非结构网格计算进行优化,采用主核与从核异步并行的方式,差异化使用主从核以充分利用硬件资源,同时,取消处理器提供的寄存器通信机制,降低从核阵列的同步开销同时便于扩展到新一代神威平台。此外,使用计算访存异步重叠技术来充分隐藏访存延迟。利用SpMV、Integration、calcLudsFcc算子进行实验,结果表明,相比主核实现,组合加速算法在不同算例规模下平均取得了10倍的加速效果,加速比最高可达24倍,N阶对角染色算法相比非染色分块算法取得了超过5.8倍的性能加速,有效提升了数据局部性和计算并行度。该算法对有依赖关系的计算冲突算子同样具有良好的加速性能,验证了自适应和无依赖任务划分方法的有效性。
关键词神威·太湖之光    非结构网格    众核加速    离散访存    无依赖任务划分    
Unstructured Grid Computing Acceleration Algorithm Based on Sunway TaihuLight
XU Le , AN Hong , CHEN Junshi , ZHANG Pengfei , WU Zheng     
School of Computer Science and Technology, University of Science and Technology of China, Hefei 230026, China
Abstract: The performance of unstructured grid computing on Sunway TaihuLight, a domestic heterogeneous many-core platform, is limited by sparse storage, discrete memory access, and data dependency.To relieve the sparse storage and discrete memory access problems, this paper proposes an N-order diagonal coloring algorithm, which effectively balances the computing between Management Processing Element (MPE) and Computing Processing Elements (CPEs) and convert global memory access to Local Device Memory (LDM) access using CPEs.To solve the computing competition caused by data dependence, this paper presents an adaptive and independent blocking method to avoid data conflicts in parallel computing.Furthermore, various optimizations are employed to overcome the performance bottlenecks: 1.To leverage hardware resources, the authors use asynchronous parallelism between MPE and CPEs.2.To reduce synchronization costs, they avoid register communication, which increases the scalability of the next-generation Sunway platform.3.To hide the memory access latency, the authors overlap memory access with computing.The SpMV, Integration, and calcLudsFcc operations are generally used to verify the validity of the algorithm, and the results show that our algorithm achieves an average speedup of about 10 times and up to 24 times higher than that of the MPE implementation.Moreover, the N-order diagonal coloring algorithm has a 5.8 times higher speedup than that of the non-coloring blocking algorithm, which effectively improves data locality and computational parallelism.The algorithm also has good acceleration performance for dependent conflict operators, which verifies the effectiveness of adaptive and independent task partitioning methods.
Key words: Sunway TaihuLight    unstructured grid    many-core acceleration    discrete memory access    independent task partition    

开放科学(资源服务)标志码(OSID):

0 概述

近几十年来,计算流体力学(Computational Fluid Dynamics,CFD)呈现蓬勃发展的态势,在学术界与各学科相互交叉,科研成果日新月异,在工业界与各领域深度结合,成为辅助工程设计的新兴技术。非结构网格是有限元和有限体积等数值方法中最常用的离散网格,在CFD计算中具有重要意义,需要基于硬件架构精细调优以保证其良好的性能优势。非结构网格计算一般表示为稀疏矩阵运算,其更新时的随机访存加剧了数据存储的离散性。随着网格规模的增加,离散访存的规模也在成倍增加,在带宽受限的计算系统中成为主要性能瓶颈。离散访存的计算特点使得并行化时也会出现多个计算任务同时访问相同元素的写后读冲突和写写冲突问题。

神威·太湖之光计算机系统[1]是世界上第一台峰值性能超过十亿亿次量级的超算系统,使用完全自主研制的申威26010异构众核处理器[2]。但非结构网格在众核处理器上的计算普遍存在离散访存、数据依赖等问题,并行化难度较高。此外,有依赖关系的算子和对称矩阵的计算进一步提高了在众核处理器上实现高性能非结构网格计算的难度。

为了解决非结构网格计算中有依赖关系算子在众核处理器上的优化问题,本文对大量稀疏网格数据进行分析,从网格本身结构和数据之间的关系出发,提出自适应和无依赖的任务划分策略,使任务划分方法与具体算子不产生绑定关系,从而提高对不同类型算子的普适性。根据主从核架构的特点,本文提出N阶对角染色算法平衡主从核计算,并在从核计算时摒弃传统的寄存器通信操作,便于扩展到新一代神威平台。此外,考虑到计算访存重叠技术是申威处理器的常见优化策略,本文利用该技术进一步提升计算效率。

1 研究背景 1.1 申威异构众核处理器

神威·太湖之光计算机系统是我国首台完全自主研发的世界第一超算系统,也是我国目前使用最广泛的高性能计算平台之一,为经济和社会发展提供了有力支撑。神威·太湖之光超算系统由高速计算系统和辅助计算系统及配套的互连网络和存储系统组成,配备精准的资源调度系统和丰富的并行编程环境。系统由40 960块申威26010处理器构成,内存空间为1 024 TB,访存总带宽为4 473 TB/s,峰值运算速度达到125PFLOPs,比其他同量级超算系统节能60%以上。

申威26010处理器是我国通过自主核心技术研制的全新异构众核处理器,支持64位申威指令集。申威处理器由4个同构核组构成,每个核组内有1个控制核心(主核)和64个计算核心(从核),共享统一编址的8 GB主存,如图 1所示。

Download:
图 1 申威26010处理器架构 Fig. 1 The architecture of SW26010 processor

在申威26010处理器中:主核负责任务分发和调度,工作频率为1.45 GHz,L1 Cache为32 KB,L2 Cache(数据和指令Cache混合)为256 KB;从核负责稠密计算,工作频率为1.45 GHz,指令Cache为16 KB。从核采用64 KB的局部存储(Local Data Memory,LDM)代替硬件Cache,需要用户手动完成数据的换入换出,有利于充分利用片上存储空间,但也给编程带来极大挑战。

申威处理器98%的计算性能来源于从核阵列,因此,挖掘从核架构特性、充分利用从核计算资源十分重要。稀疏矩阵运算的计算强度远低于稠密矩阵,为达到较高的性能,需要更高访存带宽的支持,而申威处理器访存性能不佳,因此,必须充分利用从核访存机制来尽可能降低开销。

从核可以通过gld/gst指令直接对主存进行访问,但基准测试显示gld/gst的延迟很高,达到上百节拍数,带宽低于1.5 GB/s,因此,在密集访存时一般不作考虑。在通常情况下,从核使用DMA操作连续访问主存数据可获得明显的性能提升。DMA操作带宽如表 1所示。

下载CSV 表 1 DMA操作带宽 Table 1 The bandwidth of DMA operation

DMA操作是指从核LDM和主存之间的数据传输,它只能由从核线程发起,有单从核模式(PE_MODE)、行模式(ROW_MODE)、广播模式(BCAST_MODE)、广播行模式(BROW_MODE)和行集合模式(RANK_MODE)5种,一般情况下常用单从核模式。此外,从核还支持跨步DMA,即按照一定跨步间隔连续访问主存。

在每个核组中,64个从核构成8×8的从核阵列,从核间的数据交换通过寄存器通信机制(Register Level Communication,RLC)进行,该机制以生产者/消费者模式运行,各从核以1个向量长度为单位在其行或列上进行数据广播和接收。如图 2所示,源从核首先将256位对齐的数据加载到寄存器中,然后通过发送缓冲区(Send Buffer)将它们发送到从核通信网格;目的从核通过接收缓冲区(Receive Buffer)从通信网格中获取数据,并将其加载到本地寄存器。

Download:
图 2 寄存器通信机制原理 Fig. 2 RLC principle

寄存器的通信延迟通常低至几个周期,如表 2所示,这使得从核间的数据可以快速交换,但每个从核只能通过行广播向同一行中的一个或多个从核发送数据,或通过列广播在同一列中发送数据,这给数据的自由传输带来极大限制,不利于开发有复杂依赖关系的从核程序。

下载CSV 表 2 寄存器通信延迟 Table 2 Register communication latency
1.2 相关研究

近年来,CFD数值模拟软件作为高性能计算领域中的重要应用,已经广泛部署于众多超算平台上。商业软件因其平台适配性强和稳定性高,曾是非结构网格计算软件的主流,如Fluent[3]、UMS3D[4-5]、FUN3D[6-7]、TAU[8]、CFD++[9]、NSU3D[10]等,但其内部源代码不对外公开,很难精准解决用户需求。相比而言,开源CFD软件可以满足用户不同的开发需求,如OpenFOAM(Open source Field Operation And Manipulation) [11]、Featflow[12]、Gerris[13]、Code_Saturne[14]等,其中,OpenFOAM是目前应用范围最广、可扩展性最强、解算器最全的开源软件包。

CFD软件中的核心部分是高精度数值求解器,越来越多的研究人员开始使用异构加速方法来改进线性方程组的求解。BOLZ等[15]首次在GPU上实现了高效的SpMV算子,此后,基于ELLPACK格式,BELL等[16]设计HYB存储格式实现了SpMV,而VÁZQUEZ等[17]、MONAKOV等[18]和CHOI等[19]分别设计了ELLPACK-R、sliced-ELLPACK和blocked ELLPACK存储格式。

基于CSR格式,KOZA等[20]提出了CSMR格式以提高数据重用,GREATHOUSE等[21]和ASHARI等[22]分别提出CSR-adaptive和ACSR格式以解决负载均衡问题。此外,MERRILL等[23]和LIU等[24]还分别提出MCSR和CSR5格式,取得了良好的性能提升。对于分块问题,BULUÇ等[25]、ASHARI等[26]、LIANG等[27]和YAN等[28]分别提出了CSB、BRC、HCC和BCCOO存储格式。

在国产申威处理器上,文献[29]基于CSR格式提出动静态优化方法,其相比主核实现取得了6倍的加速效果,文献[30]进一步提出双边多级划分方法,相比主核实现取得了12倍以上的加速效果。文献[31]基于非结构网格实现了稀疏下三角方程求解器,文献[32]提出基于排序思想的通用众核优化算法以减少非结构网格计算中的随机访存,随后,文献[33]提出两阶段优化方法以克服大规模不规则访存和带宽利用率低的问题。

2 非结构网格计算

OpenFOAM是一款对连续介质力学问题进行数值计算的开源C++类库,因其模块化和可定制程度高,目前已成为超算平台上主流的CFD软件。OpenFOAM基于C++语言开发,利用操作符重载、继承和模板等面向对象特性,支持数据预处理、数据后处理和自定义偏微分方程求解,框架内提供网格生成、有限体积法、线性方程组求解、输入输出处理等功能。

图 3所示,OpenFOAM中非结构网格一般通过邻接矩阵表示,而非结构网格的稀疏性又使得邻接矩阵为稀疏矩阵。稀疏运算计算强度低,在众核处理器上仍有很大的优化空间,因此,本文基于申威处理器提出非结构网格计算的通用加速框架。

Download:
图 3 非结构网格及其矩阵表示 Fig. 3 The unstructured gird and its matrix representation
2.1 基础数据结构

OpenFOAM中稀疏矩阵按照LDU格式存储,矩阵上除对角线元素外各非零元素用一个三元组(行号,列号,数值)表示,如图 4所示。

Download:
图 4 LDU存储格式 Fig. 4 LDU storage format

整个稀疏矩阵分为对角部分(Diag)、上三角部分(Upper)和下三角部分(Lower),对角线元素即网格顶点数据,上三角和下三角元素为网格边数据。上三角元素的行索引(Row)对应下三角元素的列索引(Col),而上三角元素的列索引对应下三角元素的行索引,数据可以使用相同的索引数组存储。在从核并行计算时,虽然矩阵上三角每行元素按序排列,但是下三角每行元素并不连续,访问下三角元素时很难满足空间局部性。

2.2 计算特征分析

非结构网格能够适应各种复杂结构的面网格划分,是流体力学仿真软件中最主要的空间离散化解决方案。非结构网格计算存在3种模式,即顶点状态更新(点更新)、边状态更新(边更新)和通过邻居顶点与邻接边更新顶点状态(边点更新)。

图 5所示,边更新计算特征为$ S\left(e\right)=f\left(S\right(e), $ $ S\text{'}\left({v}_{1}\right), S\text{'}\left({v}_{2}\right)) $,典型计算函数为$ S\left(e\right)+=\sum \left(S\text{'}\right({v}_{i}\left)\right) $

Download:
图 5 边更新模式 Fig. 5 The edge update mode

图 6所示,点更新计算特征为$ S\left(v\right)=f\left(S\right(v), $ $ S\text{'}\left({e}_{1}\right), S\text{'}\left({e}_{2}\right), S\text{'}\left({e}_{3}\right), S\text{'}\left({e}_{4}\right), S\text{'}\left({e}_{5}\right)),$典型计算函数为$ S\left(v\right)+=\sum \left(S\text{'}\right({e}_{i}\left)\right) $

Download:
图 6 点更新模式 Fig. 6 The point update mode

图 7所示,边点更新计算特征为$ S\left(v\right)=f\left(S\right(v), $$ S\text{'}\left({e}_{1}\right), S\text{'}\left({e}_{2}\right), S\text{'}\left({e}_{3}\right), S\text{'}\left({e}_{4}\right), S\text{'}\left({e}_{5}\right), S\text{'}\text{'}\left({v}_{1}\right), S\text{'}\text{'}\left({v}_{2}\right), S\text{'}\text{'}\left({v}_{3}\right), $$ S\text{'}\text{'}\left({v}_{4}\right), S\text{'}\text{'}\left({v}_{5}\right)) $,典型计算函数为$ S\left(v\right)+=\sum \left(S\text{'}\right({e}_{i})\mathrm{ }\cdot $$ S\text{'}\text{'}\left({v}_{i}\right)) $

Download:
图 7 边点更新模式 Fig. 7 The edge and point update mode

3种模式的共同特征在于状态信息在顶点与边之间流动。本文将边视为基本单元,顶点视为连接单元,计算过程则为遍历非结构网格的所有边,获取每条边上左右顶点状态,并与边自身状态进行运算,最终用运算结果更新左右顶点状态或边自身状态,如表 3所示。

下载CSV 表 3 非结构网格计算模式 Table 3 Unstructured grid computing mode

由于数据关系的依赖性和对数据访问的离散性等固有特点,导致非结构网格计算具有局部性差、数据相关、离散访存、并发度低等问题,在众核处理器上进行优化时难度较大,性能偏低。

3 基于申威处理器的众核加速方法 3.1 算法思想

由于非结构网格的稀疏性,导致算法在计算时对元素访问并不连续,无法充分利用访存带宽。此外,非结构网格的离散宽度(稀疏矩阵中非零元素与该行对角线元素之间的距离)较大,造成访存间隔过大,难以满足空间局部性。如图 8所示,1号边和2号边的距离较大,遍历时虽然行索引相同,但是列索引相距较远,不满足空间局部性,访存性能较差。因此,本文采用分块划分的思想,将一段时间内的访存数据尽可能集中存储在较快的存储器上,降低从下层存储器读取数据的时间开销。

Download:
图 8 非结构网格的邻接矩阵 Fig. 8 The adjacent matrix of unstructured grid

此外,非结构网格计算存在大量的对称矩阵,为节省存储空间,一般仅保留上三角矩阵,但是在计算时需要对称更新,因此,在众核处理器上的并行化存在数据相关和输出相关(写冲突)的问题。例如,在图 8中,1号边和2号边位于同一行,表示其对相同目标结果进行更新,存在依赖关系,如果计算任务被分配至2个不同的线程执行,可能会发生写后读冲突。此外,1号边和6号边位于同一列,且1′号边和6号边位于同一行,由于对称更新,则1号边和1′号边同时更新时如果其他计算任务对6号边更新,就会发生写写冲突。本文在分析非结构网格的数据特点和计算特征后,提出并行度更高的无依赖任务划分方法,将数据相关和输出相关的计算分配到相同任务队列。

本文提出一种N阶对角染色算法,非结构网格边线沿对角方向划分为大小相同的方块后,将有依赖关系的方块染上同种颜色,分配到同一任务队列中进行并行计算。然后,染色器不断向外扩展并对其他类对角方块染色。算法根据方块内元素密度决定染色阶数,即向外扩展对角线的次数。该算法支持非结构网格下大多数的算子模型,特别是有依赖关系的算子。算法执行步骤如下:

1) 网格预处理及自适应划分。获得当前顶点数和边数,记录边线所连顶点。根据LDM存储空间等,针对不同网格拓扑自适应确定分块大小(边线所连顶点范围)和染色阶数,保证计算单元负载均衡。

2) 分块染色及重排整理。根据分块大小,从对角块向外对网格逐阶染色,按照边随顶点走、一阶一类色的原则,同时建立索引表记录顶点的块内位置与全局位置关系,方便后续计算结果更新。

3) 任务调度。同色块分配至同一任务队列,采用动态调度方法管理任务队列以维持从核负载平衡。

4) 访存及计算。从核通过DMA操作完成网格边线重排序,将当前队列内染色块加载至LDM中并执行计算。同时,为了隐藏DMA操作时间,从核在进行当前计算时开始下一轮DMA操作,使得计算与访存重叠。在从核计算过程中,主核同时负责未染色块计算,因为未染色块更为稀疏,局部性更差,更适合通过主核计算,而从核通过DMA对数据的换入换出往往会带来更高的时间开销,不利于发挥其性能优势。

3.2 算例分析

考虑到计算的常见性和代表性,本文以典型算子稀疏矩阵向量乘(Sparse Matrix Vector Multiplication,SpMV)为例分析众核加速方法。

作为最常见的稀疏运算,双精度SpMV的计算强度仅为0.080~0.125 FLOPs/Byte,在带宽受限的众核处理器上性能较差。SpMV算子描述如算法1所示。

算法1  SpMV算子

输入  VE

输出  V

1.for i form 0 to n_edge do

2.   V[E.col[i]] += E.val[i] * V[E.row[i]];

3.   V[E.row[i]] += E.val[i] * V[E.col[i]];

4.end for

在算法1中:V为输入/输出向量值,即网格顶点状态;E.row/E.col和E.val分别为稀疏矩阵的行/列索引和值,即网格边状态。顶点状态的更新由相连边状态及其连接顶点状态的乘积累加得到。本文所提算法执行过程如下:

1) 在算法2中,设最小并行单位为Δ,即分块最小顶点范围。根据LDM空间大小、DMA特性和读取的网格拓扑信息,自适应确定分块因子大小α

算法2  分块因子判决

输入  ΔEV

输出  α

1.α = (LDM-dma_size*n_edge)/(2*Δ*n_vertex);

2.return α;

2) 在算法3中,根据分块大小αΔ扫描边线,先将主对角块染色并建立边索引表,例如第一块顶点范围在0~(αΔ-1)内,第二块顶点范围在αΔ~(2αΔ-1)内,同时将顶点全局位置转换为块内位置,建立关系映射表,原因是块内计算时不能使用全局地址。按照同样的方法向二阶及以上阶扩展,皆为双侧次对角块,即包括上三角和对称的下三角两部分。随后,算法4从对角块中挑选较稠密对角块进行染色,挑选标准由块内节点密度和网格整体密度决定,根据大量测试后得出。未被挑选的非稠密块则分配给主核任务队列,依据主从核的不同特点实现任务分配。三阶对角染色示意图如图 9所示。

Download:
图 9 三阶对角染色 Fig. 9 Third-order diagonal dyeing

算法3  分块染色及重排整理

输入  αΔEV

输出  E_order,Diag

1.α = blocking(E,V,Δ);

2.for i from 0 to n_edge do

3.   (orderid,blockid) = judge(i,Δ,α,V);

4.   E_order[orderid].origin_index.push_back(i);

5.   row_blockid = adjust(E.row[i]);

6.   col_blockid = adjust(E.col[i]);

7.   E_order[orderid].row.push_back(row_blockid);

8.   E_order[orderid].col.push_back(col_blockid);

9.   E_order[orderid].val.push_back(E.val[i]);

10.   E_order[orderid].block_num[blockid]++;

11.end for

12.Diag = deciding(E_order);

算法4  挑选染色对角

输入  αΔEV

输出  E_order,Diag

1.for i from 0 to n_vertex/αΔ do

2.   t = threshold;

3.   if E_order[orderid].block_nums > t do

4.    should be selected;

5.    Diag[N++] = i;

6.   end if

7.end for

8.return Diag;

3) 建立从核任务队列queue,将全部一阶色块分入队列,从核从队列中获取任务并完成计算。类似地,在一阶色块完成计算后,其他同阶色块依次被分配到任务队列,队列内从核运行状态一致,从而避免写后读冲突和写写冲突。

4) 在算法5中,从核通过DMA获取块内顶点状态和边状态以及索引表并完成更新,在计算时可以预取下一轮数据,从而使得DMA时间被有效隐藏,如图 10所示。在从核计算的同时,主核负责其他未染色块的计算,从而实现主从核异步并行,进一步提升计算效率。

Download:
图 10 计算访存异步重叠 Fig. 10 The asynchronous overlap of computation and memory access

算法5  访存及计算

输入  VE

输出  VE

1.for i from 0 to E_order[orderid].nums do

2.   get block of V;

3.   for j form 0 to E_order[orderid].block_num[i] do

4.   get block of E_order[orderid].val to E.val;

5.   get block of E_order[orderid].row to E.row;

6.   get block of E_order[orderid].col to E.col;

7.   get block of E_order[orderid].origin_index;

8.   compute(E.val,E.row,E.col,V);

9.   put block of E_order[orderid].val;

10. end for

11. put block of V;

12.end for

4 实验结果与分析

本次实验基于申威26010众核处理器,硬件参数如表 4所示,采用swg++编译器编译全部C/C++程序。

下载CSV 表 4 申威26010处理器硬件参数 Table 4 The hardware parameters of SW26010 processor
4.1 不同网格的性能分析

为保证算法性能的可靠性,本文选取典型稀疏算子SpMV作为标准测试算子,随机输入非结构网格实例进行测试分析。图 11图 12分别为SpMV算子在不同网格规模下加速算法与主核朴素算法的运行时间及加速比,以验证加速算法的通用性和优化效果。

Download:
图 11 不同网格规模下的优化性能 Fig. 11 Optimization performance under different grid scales
Download:
图 12 不同网格规模下的加速效果 Fig. 12 Acceleration effect under different grid scales

图 11图 12中可以看出,随着网格规模的增加,加速算法的加速效果基本保持稳定,因为网格划分根据输入网格密度和拓扑自适应调整,染色阶数也根据当前对角线密度自动判决,因此加速算法能在多数网格规模下保持稳定的性能优势,通用性较强。相比于主核上运行的SpMV算子,组合加速算法获得了平均10倍左右的加速比,最高加速比可达24倍。

4.2 不同算子的性能分析

本文设计非结构网格计算在申威众核处理器上的通用加速方法,因此,需要选取多种算子进行综合分析。SpMV算子的加速比如图 12所示,Integration算子和calcLudsFcc算子的加速比分别如图 13图 14所示。

Download:
图 13 Integration算子在不同网格规模下的加速效果 Fig. 13 Acceleration effect of Integration operator under different grid sizes
Download:
图 14 calcLudsFcc算子在不同网格规模下的加速效果 Fig. 14 Acceleration effect of calcLudsFcc operator under different grid sizes

经过对上述2种算子在不同网格规模下的测试发现,组合加速算法分别获得了10.22倍和6.82倍的平均加速比,而且本文算法对不同算子模型的性能表现差异并不明显,在有依赖和无依赖情况下都能取得稳定的性能优势,说明算法在任务划分和数据映射上并没有以牺牲性能为代价,自适应和无依赖任务划分方法取得了良好效果。由于算子在从核的计算和访存是基于染色后的数据块,其加速效果与数据块中的数据分布有关,在数据集中度较高的网格实例中,算子能获得显著的性能提升,可达20多倍,但在数据非常离散的情况下效果一般。

4.3 不同优化策略的性能分析

为了说明N阶对角染色算法和自适应任务划分方法的有效性,以SpMV算子为例,分别采用非N阶对角染色的分块算法和固定分块大小的任务划分方法进行对比实验,并以主核朴素算法为基准,实验结果如图 15所示。

Download:
图 15 不同优化方法的加速效果 Fig. 15 Acceleration effect of different optimization methods

N阶对角染色算法通过分析对角块密度来选择是否染色当前对角块,而普通分块算法缺少对角块信息,易将过于稀疏的对角块交由从核阵列计算。将全部矩阵块映射到从核阵列会造成极大的性能损失,本文通过固定前100阶对角块由从核计算来模拟非染色的普通分块算法性能。自适应划分方法根据LDM空间大小、DMA特性和网格拓扑信息确定分块大小,可以充分利用LDM空间,而固定分块大小则容易造成对LDM空间的利用不足。实验结果表明,非N阶对角染色的分块算法平均加速比为2.64倍,固定分块大小的任务划分方法平均加速比仅为1.8倍,难以发挥众核架构的计算能力,甚至有负优化效果出现。采用自适应任务划分的N阶对角染色算法能有效利用LDM空间并根据块内密度选择从核或主核来执行计算,平均加速比可达10倍。

5 结束语

为提升非结构网格计算中有依赖关系算子在众核处理器上的性能,本文针对非结构网格的计算特点,提出一种众核处理器上的通用加速方法,并基于申威26010处理器架构对其进行精细调优。通过自适应任务划分方法将从核离散访存组织为批量访存,以降低访存开销。采用无依赖划分策略避免计算时的数据冲突,通过N阶对角染色算法将计算任务分类调度执行,从而有效利用主从核的架构特点。此外,采用计算访存重叠技术进一步提升计算性能。实验结果表明,该方法在不同网格规模和不同算子模型下都取得了良好的加速效果,在有依赖和无依赖情况下均能保持稳定的性能优势,证明了任务划分方法的有效性。但是,本文所提方法对于数据分布极为分散的非结构网格仍存在一定局限性,下一步将结合排序算法对网格数据进行重排整理,提升数据的局部性,增加在从核阵列计算的数据块,从而满足更多稀疏网格数据的众核计算需求。

参考文献
[1]
FU H H, LIAO J F, YANG J Z, et al. The Sunway TaihuLight supercomputer: system and applications[J]. Science China Information Sciences, 2016, 59(7): 1-16.
[2]
胡向东, 柯希明, 尹飞, 等. 高性能众核处理器申威26010[J]. 计算机研究与发展, 2021, 58(6): 1155-1165.
HU X D, KE X M, YIN F, et al. Shenwei-26010: a high-performance many-core processor[J]. Journal of Computer Research and Development, 2021, 58(6): 1155-1165. (in Chinese)
[3]
Fluent. Fluent 6.2 user's guide [EB/OL]. [2022-07-05]. https://www.cfd-online.com/Forums/fluent/36245-fluent-6-2users-guide.html.
[4]
FRINK N T. Tetrahedral unstructured navier-stokes method for turbulent flows[J]. AIAA Journal, 1998, 36(11): 1975-1982. DOI:10.2514/2.324
[5]
FRINK N T. Upwind scheme for solving the Euler equations on unstructured tetrahedral meshes[J]. AIAA Journal, 1992, 30(1): 70-77. DOI:10.2514/3.10884
[6]
ANDERSON W K, BONHAUS D L. An implicit upwind algorithm for computing turbulent flows on unstructured grids[J]. Computers & Fluids, 1994, 23(1): 1-21.
[7]
NIELSEN E J. Aerodynamic design sensitivities on an unstructured mesh using the Navier-Stokes equations and a discrete adjoint formulation[EB/OL]. [2022-07-05]. https://theses.lib.vt.edu/theses/available/etd-110498-110349/unrestricted/thesis.pdf.
[8]
GERHOLD T, FRIEDRICH O, EVANS J, et al. Calculation of complex three-dimensional configurations employing the DLR-tau-code[J]. AIAA Journal, 1997, 16(1): 67-81.
[9]
ANGELINI R C, SAHU J. Visualization techniques of a CFD++ data set of a spinning smart munition[EB/OL]. [2022-07-05]. https://apps.dtic.mil/sti/pdfs/ADA428396.pdf.
[10]
MAVRIPLIS D J. Third drag prediction workshop results using the NSU3D unstructured mesh solver[J]. Journal of Aircraft, 2008, 45(3): 750-761. DOI:10.2514/1.29828
[11]
JASAK H, JEMCOV A, TUKOVIC Z. OpenFOAM: a C++ library for complex physics simulations[EB/OL]. [2022-07-05]. https://www.researchgate.net/publication/228879492_ OpenFOAM_A_C_library_for_complex_physics_simulations.
[12]
TUREK S, BECKER C. Featflow-finite element software for the incompressible Navier-Stokes equations[EB/OL]. [2022-07-05]. https://www.semanticscholar.org/paper/FEATFLOW-Finite-element-software-for-the-equations-Turek-Becker/90aff87e5bec2b1e3ad3d3356a1da617a3e28059.
[13]
POPINET S. Gerris: a tree-based adaptive solver for the incompressible Euler equations in complex geometries[J]. Journal of Computational Physics, 2003, 190(2): 572-600. DOI:10.1016/S0021-9991(03)00298-5
[14]
FRÉDÉRIC A, NAMANE M, MARC S. Code saturne: a finite volume code for the computation of turbulent incompressible flows-industrial applications[J]. International Journal on Finite Volumes, 2004, 1(1): 1-62.
[15]
BOLZ J, FARMER I, GRINSPUN E, et al. Sparse matrix solvers on the GPU[J]. ACM Transactions on Graphics, 2003, 22(3): 917-924. DOI:10.1145/882262.882364
[16]
BELL N, GARLAND M. Implementing sparse matrix-vector multiplication on throughput-oriented processors[C]//Proceedings of Conference for High Performance Computing Networking, Storage and Analysis. Washington D. C., USA: IEEE Press, 2009: 1-11.
[17]
VÁZQUEZ F, FERNÁNDEZ J J, GARZÓN E M. A new approach for sparse matrix vector product on NVIDIA GPUs[J]. Concurrency and Computation: Practice and Experience, 2011, 23(8): 815-826. DOI:10.1002/cpe.1658
[18]
MONAKOV A, LOKHMOTOV A, AVETISYAN A. Automatically tuning sparse matrix-vector multiplication for GPU architectures[C]//Proceedings of International Conference on High-Performance Embedded Architectures and Compilers. Berlin, Germany: Springer, 2010: 111-125.
[19]
CHOI J W, SINGH A, VUDUC R W. Model-driven autotuning of sparse matrix-vector multiply on GPUs[J]. ACM SIGPLAN Notices, 2010, 45(5): 115-126. DOI:10.1145/1837853.1693471
[20]
KOZA Z, MATYKA M, SZKODA S, et al. Compressed multirow storage format for sparse matrices on graphics processing units[J]. SIAM Journal on Scientific Computing, 2014, 36(2): 219-239. DOI:10.1137/120900216
[21]
GREATHOUSE J L, DAGA M. Efficient sparse matrix-vector multiplication on GPUs using the CSR storage format[C]//Proceedings of International Conference for High Performance Computing, Networking, Storage and Analysis. Washington D. C., USA: IEEE Press, 2014: 769-780.
[22]
ASHARI A, SEDAGHATI N, EISENLOHR J, et al. Fast sparse matrix-vector multiplication on GPUs for graph applications[C]//Proceedings of International Conference for High Performance Computing, Networking, Storage and Analysis. Washington D. C., USA: IEEE Press, 2014: 781-792.
[23]
MERRILL D, GARLAND M. Merge-based parallel sparse matrix-vector multiplication[C]//Proceedings of International Conference for High Performance Computing, Networking, Storage and Analysis. Washington D. C., USA: IEEE Press, 2016: 1-12.
[24]
LIU W F, VINTER B. CSR5: an efficient storage format for cross-platform sparse matrix-vector multiplication[C]//Proceedings of the 29th ACM International Conference on Supercomputing. New York, USA: ACM Press, 2015: 339-350.
[25]
BULUÇ A, FINEMAN J T, FRIGO M, et al. Parallel sparse matrix-vector and matrix-transpose-vector multiplication using compressed sparse blocks[C]//Proceedings of the 21st Annual Symposium on Parallelism in Algorithms and Architectures. New York, USA: ACM Press, 2009: 233-244.
[26]
ASHARI A, SEDAGHATI N, EISENLOHR J, et al. An efficient two-dimensional blocking strategy for sparse matrix-vector multiplication on GPUs[C]//Proceedings of the 28th ACM International Conference on Supercomputing. New York, USA: ACM Press, 2014: 15-26.
[27]
LIANG Y, TANG W T, ZHAO R Z, et al. Scale-free sparse matrix-vector multiplication on many-core architectures[J]. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2017, 36(12): 2106-2119. DOI:10.1109/TCAD.2017.2681072
[28]
YAN S, LI C, ZHANG Y, et al. yaSpMV: yet another SpMV framework on GPUs[J]. ACM SIGPLAN Notices, 2014, 49(8): 107-118. DOI:10.1145/2692916.2555255
[29]
刘芳芳, 杨超, 袁欣辉, 等. 面向国产申威26010众核处理器的SpMV实现与优化[J]. 软件学报, 2018, 29(12): 3921-3932.
LIU F F, YANG C, YUAN X H, et al. General SpMV implementation in many-core domestic Sunway 26010 processor[J]. Journal of Software, 2018, 29(12): 3921-3932. (in Chinese)
[30]
LIU C X, XIE B W, LIU X, et al. Towards efficient SpMV on Sunway manycore architectures[C]//Proceedings of 2018 International Conference on Supercomputing. Washington D. C., USA: IEEE Press, 2018: 363-373.
[31]
倪鸿, 刘鑫. 基于神威·太湖之光的非结构网格众核优化技术[J]. 计算机工程, 2019, 45(6): 45-51.
NI H, LIU X. Multi-core optimization technology of unstructured grid based on Sunway TaihuLight[J]. Computer Engineering, 2019, 45(6): 45-51. (in Chinese)
[32]
倪鸿, 刘鑫. 非结构网格下稀疏下三角方程求解器众核优化技术研究[J]. 计算机科学, 2019, 46(增刊1): 518-522.
NI H, LIU X. Many-core optimization for sparse triangular solver under unstructured grids[J]. Computer Science, 2019, 46(S1): 518-522. (in Chinese)
[33]
CHEN Y D, XIAO G Q, WU F, et al. tpSpMV: a two-phase large-scale sparse matrix-vector multiplication kernel for manycore architectures[J]. Information Sciences, 2020, 523: 279-295. DOI:10.1016/j.ins.2020.03.020