產業消息 nvidia hpc 超級電腦 Grace Hopper GH200 全球九套新超級電腦採用NVIDIA GH200 SuperChip、提供綜合200 exaflops AI算力,並兼具出色節能表現 NVIDIA於SC24大會宣布,全球有9套新上線的超級電腦使用NVIDIA Grace Hopper Superchip(GH200 Superchip),並分布於法國、波蘭、瑞士、德國、美國、日本等,以較x86更為出色的能耗表現提供更強大的AI運算力,此9套系統加總的AI算力可達200 exaflops,將進一步為全球帶來更強效的AI運算。另外此外,英國布里斯托大學的Isambard-AI、Isambard 3,以及美國洛斯阿拉莫斯國家實驗室和美國德州先進運算中心的系統也加入了使用Grace CPU超級晶片和Grace Hopper平台的Arm架構超級電腦行列。 9套採用GH200 Supe Chevelle.fu 11 個月前
專家觀點 NVIDIA GTC ARM nvidia nvlink Mellanox Arm Neoverse 加速運算 NVIDIA Grace NVLink-C2C Grace Hopper SuperChip Blackwell GH200 GB200 Grace Blackwell GB200 NVL72 觀點:NVIDIA Blackwell架構著重結合Grace CPU的GB200 Superchip,意味著NVIDIA逐步減少對x86依賴 NVIDIA在GTC 2024的重點即是宣布全新AI超算GPU架構Blackwell,值得關注的是過往NVIDIA將重點放在整合Grace CPU的「Grace Blackwell」NVIDIA GB200 Superchip,並將GB200構成的GB200 NVL72機架式系統視為新DGX SuperPOD的關鍵架構,對於純CPU的NVIDIA B200相對輕描淡寫。 ▲回顧NVIDIA的GPU加速運算之路,從僅有2家夥伴至今已成HPC與AI產業龍頭 NVIDIA如此大張旗鼓宣傳GB200 Superchip,主要的理由恐怕還是向產業擺明NVIDIA在超算領域正設法減少對AMD與Intel的 Chevelle.fu 1 年前
產業消息 nvidia amazon AI aws Grace Hopper SuperChip 大型語言模型 生成式AI LLM GH200 H200 亞馬遜AWS率先導入NVIDIA Grace Hopper Superchip與Ultra Cluster可擴展雲端超級電腦,為生成式AI提供強大的雲運算基礎架構、軟體與服務 Amazon Web Service/AWS於自家年度活動AWS re:Invent大會宣布攜手NVIDIA導入多項NVIDIA的創新硬體、技術與服務,率先成為首家導入NVIDIA Grace Hopper Superchip與Ultra Cluster可擴展雲端超級電腦的雲服務商,為機器學習與當前火熱的生成式AI提供自硬體、軟體到軟體的全方位解決方案。 AWS宣布將是第一家提供NVIDIA Grace Hopper Superchip的雲端服務商,以達32個節點構成單一個NVIDIA GH200 NVL32執行個體,將高達32個Grace Hopper Superchip成為一個具備20TB Chevelle.fu 1 年前
產業消息 nvidia 超級電腦 歐盟 Arm Neoverse Grace Hopper SuperChip GH200 JUPITER 歐盟JUPITER超級電腦由2.4萬枚NVIDIA Grace Hopper挹注算力,將應對材料科學、氣候研究、藥物探索等領域 由NVIDIA與歐洲高效能電腦運算聯合倡議(EuroHPC Joint Undertaking)、ParTec、Eviden 和SiPearl共同合作、設置在德國於利希研究中心(Forschungszentrum Jülich)內的JUPITER是歐盟新一代的超級電腦計畫,NVIDIA在SC24峰會公佈JUPITER將由NVIDIA Grace Hopper SuperChip提供動力,將作為氣候與天氣研究、材料科學、藥物發現、工業工程與量子運算等領域加速建立基礎人工智慧模型。 JUPITER系統預計於2024年安裝完成 JUPITER也同時是四個NVIDIA GH200 Grace Chevelle.fu 1 年前
產業消息 nvidia gpu MLPerf Grace Hopper SuperChip Jetson Orin NVIDIA L4 GH200 NVIDIA H100 GPU NVIDIA GH200 Grace Hopper 超級晶片首度於 MLPerf 推論基準測試亮相且表現出色, NVIDIA 宣布包括 NVIDIA GH200 、 NVIDIA H100 、 NVIDIA L4 GPU 與 Jetson Orin 等在 2023 年 9 月公布的 MLPerf 推論測試基準獲得出色且領先的表現,其中 NVIDIA GH200 Grace Hopper Superchip 更是首度提交 MLPerf 測試結果,展現透過整合 CPU 與 GPU 在單一超級晶片提供更多記憶體、頻寬以及主動平衡 CPU 與 GPU 電力帶來的效益;此外 NVIDIA 也公布針對大型語言模型的 TensorRT-LLM 軟體,進一步針對 NVIDIA 硬體特性、跨 GPU 與節點運算最佳化,使 Chevelle.fu 1 年前
產業消息 nvidia AI 資料中心 Grace Hopper SuperChip 大型語言模型 生成式AI GH200 HBM3e SIGGRAPH 2023 : NVIDIA 公布 141GB HBM3e 版 NVIDIA GH200 Grace Hopper Superchip ,並宣布 NVLink dual-GH200 雙晶片伺服器系統 NVIDIA 已經在 Computex 2023 期間公布首款混合 CPU 與 GPU 的 NVIDIA GH200 Grace Hopper Superchip 開始量產,並預計在 2023 年末推出;或許是受到 AMD 也將推出第一款資料中心級 APU 產品 Instinct MI300A 的影響,在 SIGGRAPH 2023 主題演講, NVIDIA 再宣布將推出採用 HBM3e 記憶體版本的 NVIDIA GH200 Grace Hopper Superchip ,不僅將 GPU 記憶體頻寬提高到 5TB/s ,同時相較先前公布的 GH200 配有 96GB 的 HBM3 記憶體, Chevelle.fu 1 年前
產業消息 COMPUTEX台北國際電腦展 nvidia nvlink InfiniBand NVIDIA Quantum-2 NVLink-C2C Grace Hopper SuperChip GH200 COMPUTEX 2023 : NVIDIA 宣布 Grace Hopper Superchip 已開始量產,並公布算力達 1-Exaflops 、由 256 個 Grace Hopper SuperChip 構成的 DGX GH200 NVIDIA 執行長黃仁勳在 COMPUTEX 2023 主題演講宣布 NVIDIA GH200 Grace Hopper SuperChip 已正式量產,搭載 GH200 的系統預計於 2023 年稍晚上市;同時 NVIDIA 還一併公布由高達 256 個 GH200 Grace Hopper 構成的 NVIDIA DGX 200 超級電腦,具備超過 1 exaflops 效能與 144TB 記憶體,憑藉驚人的算力與巨量記憶體可為生成式 AI 、推薦系統與資料分析開發巨型的下一代模型。 Google Cloud 、 Meta 與微軟預計是首波導入 DGX GH200 作為探索生成式 AI 工 Chevelle.fu 1 年前