產業消息 nvidia LPDDR5X 記憶體模組 HBM3e LPCAMM2 SOCAMM 美光攜手NVIDIA開發基於LPDDR5X的SOCAMM資料中心記憶體模組,已導入NVIDIA GB300解決方案 雖然傳統LPDDR記憶體多採用直接焊接在系統PCB的方式,然而隨著包括可維護性、可升級性等需求,LPDDR在市場也產生模組化的需求,是故如筆電領域已有像是LPCAMM2等已被JEDEC標準化的新式記憶體模組;不過畢竟消費市場與伺服器、工作站的需求不同,美光宣布與NVIDIA共同合作,開發基於LPDDR5X記憶體的資料中心級記憶體模組SOCAMM,相對傳統DDR5記憶體模組尺寸更小、頻寬更高且能源效率更出色,當前SOCAMM已經導入NVIDIA最新一代的GB300 Grace Blackwell Ultra Superchip解決方案。 為AI資料中心規劃的小型、高性能、高可靠記憶體模組SOCA Chevelle.fu 1 個月前
產業消息 nvidia LPDDR5 HBM3e LPCAMM HBM3e 12H GB300 GTC 2025 NVIDIA於GTC 2025的重頭戲將會是Blackwell GB300,配有288GB的HBM3e記憶體、搭配LPCAMM記憶體模組 NVIDIA在COMPUTEX 2024的主題演講由執行長黃仁勳確立了加速器產品兩年架構大改、隔年記憶體升級的策略;根據經濟日報指稱,NVIDIA在2025年年度活動GTC 2025的重頭戲將會放在Blackwell架構小改版的GB300,除了記憶體升級以外,也將包括水冷設計、網卡等周邊搭配進行升級,其中關鍵的記憶體將升級12層HBM3e,使容量自當前GB200的192GB提高至288GB,此外功耗高達1,400W。 ▲爆料指稱NVIDIA GB300平台將使用LPCAMM記憶體模組取代現行板載鑲嵌,照片為美光LPCAMM2模組 經濟日報引述供應鏈說法,GB300平台使FP4性能提高1.5倍, Chevelle.fu 4 個月前
產業消息 COMPUTEX台北國際電腦展 AMD apu 異構運算 Zen 5 HBM3e Instinct MI350X Instinct MI325X Instinct MI400X COMPUTEX 2024:AMD Instinct MI300X異構APU加速處理器將連兩年改版MI325X、MI350X,2026年再推新架構MI400X 握有CPU、GPU與NPU三大技術的AMD有著良好的異構加速運算基礎,為了面臨更複雜的加速運算世代,AMD在2023年公布首款異構加速APU處理器Instinct MI300X,AMD執行長Lisa Su在COMPUTEX 2024宣布Instinct MI300X將在2024年與2025年分別迎接一次技術升級,延伸記憶體強化的Instinct MI325X與採用3nm製程、新CDNA4的Instinct MI350X,而2026年將推出架構大改版的Instinct MI400X。 ▲Instinct MI325將搭載更大容量、更高頻寬的HBM3E記憶體,意義上類似NVIDIA的H200之於H Chevelle.fu 10 個月前
產業消息 COMPUTEX台北國際電腦展 nvidia 乙太網路 架構 HBM3e HBM4 Rubin Blackwell Ultra Rubin Ultra COMPUTEX 2024:NVIDIA運算產品線將採GPU架構兩年更新隔年小改版的週期,2026推出Vera CPU與Rubin GPU NVIDIA在2024年5月的財報電話會議宣布GPU加速與AI產品將逐年更新,在NVIDIA CIMPUTEX 2024的主題演講,NVIDIA執行長黃仁勳呼應在電話會議的說法,但進一步釐清逐年更新的定義;與業界原本預期不同的是NVIDIA並不打算改變當前兩年一次GPU架構更新的節奏,而是將Hopper架構推出隔年的升級更新變成常態;不過更驚喜的是黃仁勳也在這場活動公告2026年的新GPU就以「Rubin」作為代號,同時也會推出新一代Arm指令集CPU「Vera」,循「Grace Hopper」模式致敬知名天文學家Vera Rubin。 ▲NVIDIA的每年更新實質上就是把H100在隔年推出記 Chevelle.fu 10 個月前
科技應用 nvidia 美光 SK 海力士 HBM3e 高密度記憶體 NVIDIA 新架構支援 HBM3e 高密度記憶體 SK 海力士、美光率先量產 隨著 NVIDIA 新一代「Blackwell」顯示架構的推出,SK 海力士與美光也展示了他們的 HBM3e 高密度記憶體。 隨著NVIDIA揭曉代號「Blackwell」的新一代顯示架構,包含SK海力士 (SK hynix)、美光也各自介紹其HBM3e高密度記憶體特性,並且強調對應高效能人工智慧應用。 SK海力士表示,其HBM3e高密度記憶體已經開始量產,預計從3月下旬開始對外供貨,同時藉由大量迴焊模塑封裝 (MR-MUF)技術讓記憶體散熱效率提高10%。 運作效率方面,SK海力士說明其HBM3e高密度記憶體每秒可處理1.18TB資料量,並且能在1秒內傳輸230部Full HD畫質電影。 而 Mash Yang 1 年前
產業消息 NVIDIA GTC micron 美光 HBM3e NVIDIA H200 GTC 2024:美光於GTC大會展示已量產的8層堆疊24GB HBM3E解決方案在內的多項記憶體與儲存解決方案 美光日前宣布其8層堆疊HBM3E記憶體已量產,並將在2024年第二季搭配NVIDIA H200 GPU出貨;在GTC 2024活動,美光展示一系列記憶體與儲存解決方案,挹注自雲端至邊際的AI應用。同時競爭對手三星、Hynix也同樣在會場展示HBM3E記憶體。 ▲美光預計在2024年再推出12層36GB HMB3E記憶體 美光展示的解決方案包括:1、8層堆疊24GB HBM3E解決方案與後續12層36GB HBM3E解決方案。2、使用單片晶粒具低延遲與低功耗優勢的DDR5 RDIMM記憶體。3、支援NVIDIA Grace CPU的LPDDR5X記憶體解決方案與LPCAMM2模組。4、可在3D Chevelle.fu 1 年前
產業消息 三星 hpc AI 加速器 生成式AI HBM3e HBM3e 12H 三星將於2024年上半年量產36GB HBM3e 12H,採用12層堆疊、達1,280GB/s頻寬 不讓美光8層堆疊的HBM3e專美於前,三星宣布業界首款12層堆疊的HBM3e 12H DRAM,將容量推進至36GB,對於高效能運算、AI加速器等產品相較HBM3 8H可提升達50%的記憶體容量,同時傳輸頻寬一舉提升至1,280GB/s,預期相較HBM3 8H於AI領域可提高34%訓練性能、推論的同時用戶數則可提高11.5倍。三星HBM3e 12H已經送樣,預計2024年上半年量產 ▲三星HBM3e 12H將於2024年上半年量產 三星HBM3e 12H採用TC NCF(熱壓非導電薄膜)技術,使12層堆疊與8層堆疊的高度相同,滿足當前HBM封裝需求,TC NFC將為更多層堆疊帶來優勢,尤其可減 Chevelle.fu 1 年前
產業消息 nvidia 美光 記憶體 推論加速器 生成式AI LLM HBM3e H200 美光8層堆疊24GB HBM3e記憶體正式量產,NVIDIA H200 Tensor Core GPU率先採用 美光Micron宣布兼具高效能、大容量且更節能的HBM3e記憶體已正式量產,同時NVIDIA H200 Tensor Core GPU為首款宣布採用美光8層堆疊的24GB HBM3e解決方案的產品,並於2024年第二季出貨。同時美光預計於2024年3月還將推出12層堆疊36GB HBM3e記憶體樣品,並成為NVIDIA GTC大會贊助夥伴,屆時將分享更多美光AI記憶體產品組合與藍圖。 ▲於2023年11月公布的NVIDIA H200 Tensor Core GPU將是美光HBM3e的先行導入產品 HBM記憶體是當前高效能運算、AI應用、資料中心等不可或缺的記憶體技術,美光新一代HBM3e記憶體 Chevelle.fu 1 年前
產業消息 nvidia AI SK hynix HBM3e HBM4 加速卡 SK Hynix宣布2024年投入新一代HBM4記憶體開發,市場預估2025至2026年商用化 雖然AMD在VEGA架構世代示範HBM記憶體對於消費級顯示卡產品會額外添加成本但對遊戲效益不高,然而在HPC與AI運算領域就是市場大熱門的記憶體技術,如NVIDIA預計在2024年第一季推出的NVIDIA H200僅將記憶體至HBM3改為HBM3e,效能就獲得相當的提升;韓國記憶體大廠SK Hynix在官方部落格的年度回顧提到,SK Hynix預計於2024年投入下一代HBM4記憶體的開發。 ▲HBM3e雖是HBM3的強化版本,但更高的頻寬則能將AI加速器的性能進一步提升 由於現在仍在等待JEDEC公布HBM4的最終規格,故HBM4記憶體不會那麼快問世,市場預期正式量產的時間可能會在2025年 Chevelle.fu 1 年前
產業消息 nvidia NVIDIA Hopper HBM3e H200 NVIDIA公佈NVIDIA H200 Tensor Core GPU,搭載頻寬快2.4倍、容量翻倍的HBM3e記憶體 NVIDIA在SC24大會宣布NVIDIA H100的強化版本NVIDIA H200 Tensor Core GPU,核心架構仍基於Hopper,主要在於提升記憶體的頻寬與容量,採用具備4.8TB/s頻寬、141GB的HBM3e記憶體,藉此提升整體算力;NVIDIA H200設計與NVIDIA H100具相容性,系統業者可沿用NVIDIA H100系統設計置換NVIDIA H200。 伺服器製造商與雲端服務業者預計於2024年第二季推出NVIDIA H200的系統與服務 ▲H200的晶片仍為H100,主要差異在於採用更大容量、更高頻寬的HBM3e記憶體 NVIDIA H200是首款配置HBM3 Chevelle.fu 1 年前