相比Intel藉由Xe显示架构重新打造对应HPC、AI运算加速使用的GPU设计,藉此降低仰赖NVIDIA、AMD在内GPU厂商的情况,NVIDIA稍早也宣布CUDA for Arm设计,让旗下GPU产品能配合Arm架构处理器设计的HPC进行异构运算加速。

而这样的作法,某中程度上似乎也能视为NVIDIA期望减少在超算等级电脑搭配x86硬体架构处理器的设计比例,透过CUDA for Arm设计,使得以Arm架构处理器打造的HPC也能藉由NVIDIA旗下GPU产品加速运算,另外也能藉由CUDA-X设计让Arm架构打造的HPC相容既有软体堆迭,以及人工智慧运算框架,同时也能相容既有开发工具打造内容。
目前包含AtoS、CRAY与HPE均与NVIDIA合作CUDA for Arm设计,配合Arm架构处理器低耗电、执行效率更高特性,搭配NVIDIA旗下GPU进行异构运算,或是平行加速,让HPC能进一步提昇运算效能之外,更可降低能源损耗。

配合此次提出设计,NVIDIA也与Arm、Ampere、CRAY、富士通、HPE与Marvell合作打造HPC参考设计,分别可对应大规模云端到边缘的运算需求,并且能对应人工智慧技术应用模拟,甚至可对应高效率储存需求,或是万亿等级 (Exascale)的超算需求。
目前包含美国橡树岭实验室、桑迪亚国家实验室,以及英国布里斯托大学与日本理研在内超级电脑中心,都已经开始测试NVIDIA此款HPC参考设计。
而针对超算应用需求,NVIDIA也提出名为MAGNUM IO (万用IO),将可运用GPU加速资料吞吐表现,并且透过高频宽、低延迟,以及更低CPU存取率表现处理大量数据,相比过往在多个运算节点间传输资料的速度约可提昇20倍,藉此推进更大科学运算与超算工作规模。
这样的应用模式,NVIDIA表示未来也有计划进一步扩展至Qualcomm在内厂商打造的Arm架构处理器,同时主要还是先以超算规模应用为考量,诸如边缘运算应用则会结合Tegra处理器产品。


另外,NVIDIA也宣布与微软Azure云端服务合作Azure NDv2平台设计,藉由最高可扩充至800组Tesla V100 GPU的组合,藉此对应複杂的高效能运算或人工智慧技术应用,而各个运算节点则是透过NVIDIA所收购Mellanox旗下InfiniBand技术提昇资料异地存取效率,相比先前未导入GPU加速的HPC设计,约可在低于一半建置成本情况发挥更快运算效率。
