包含AtoS、CRAY與HPE均與NVIDIA合作CUDA for Arm設計,配合Arm架構處理器低耗電、執行效率更高特性,搭配NVIDIA旗下GPU進行異構運算,或是平行加速,讓HPC能進一步提昇運算效能之外,更可降低能源損耗。

相比Intel藉由Xe顯示架構重新打造對應HPC、AI運算加速使用的GPU設計,藉此降低仰賴NVIDIA、AMD在內GPU廠商的情況,NVIDIA稍早也宣布CUDA for Arm設計,讓旗下GPU產品能配合Arm架構處理器設計的HPC進行異構運算加速。
而這樣的作法,某中程度上似乎也能視為NVIDIA期望減少在超算等級電腦搭配x86硬體架構處理器的設計比例,透過CUDA for Arm設計,使得以Arm架構處理器打造的HPC也能藉由NVIDIA旗下GPU產品加速運算,另外也能藉由CUDA-X設計讓Arm架構打造的HPC相容既有軟體堆疊,以及人工智慧運算框架,同時也能相容既有開發工具打造內容。
目前包含AtoS、CRAY與HPE均與NVIDIA合作CUDA for Arm設計,配合Arm架構處理器低耗電、執行效率更高特性,搭配NVIDIA旗下GPU進行異構運算,或是平行加速,讓HPC能進一步提昇運算效能之外,更可降低能源損耗。
配合此次提出設計,NVIDIA也與Arm、Ampere、CRAY、富士通、HPE與Marvell合作打造HPC參考設計,分別可對應大規模雲端到邊緣的運算需求,並且能對應人工智慧技術應用模擬,甚至可對應高效率儲存需求,或是萬億等級 (Exascale)的超算需求。
目前包含美國橡樹嶺實驗室、桑迪亞國家實驗室,以及英國布里斯託大學與日本理研在內超級電腦中心,都已經開始測試NVIDIA此款HPC參考設計。
而針對超算應用需求,NVIDIA也提出名為MAGNUM IO (萬用IO),將可運用GPU加速資料吞吐表現,並且透過高頻寬、低延遲,以及更低CPU存取率表現處理大量數據,相比過往在多個運算節點間傳輸資料的速度約可提昇20倍,藉此推進更大科學運算與超算工作規模。
這樣的應用模式,NVIDIA表示未來也有計劃進一步擴展至Qualcomm在內廠商打造的Arm架構處理器,同時主要還是先以超算規模應用為考量,諸如邊緣運算應用則會結合Tegra處理器產品。
另外,NVIDIA也宣布與微軟Azure雲端服務合作Azure NDv2平台設計,藉由最高可擴充至800組Tesla V100 GPU的組合,藉此對應複雜的高效能運算或人工智慧技術應用,而各個運算節點則是透過NVIDIA所收購Mellanox旗下InfiniBand技術提昇資料異地存取效率,相比先前未導入GPU加速的HPC設計,約可在低於一半建置成本情況發揮更快運算效率。