
美光宣布12層的 HBM3E已整合至 NVIDIA HGX B300 NVL16 與 GB300 NVL72 平台。 美光/提供
AI 的穩定發展,建立在高效能、高頻寬記憶體技術上,這對 GPU 和處理器發揮運算能力至關重要。美光科技(NASDAQ: MU)25 日宣布,成為全球首家同時出貨 HBM3E 和 SOCAMM(小型壓縮附加記憶體模組)的記憶體廠商,這兩款產品專為資料中心 AI 伺服器設計,進一步鞏固其市場領先地位,並展現在低功耗雙倍資料速率(LPDDR)記憶體領域的優勢。
美光與 NVIDIA 合作推出的 SOCAMM,是模組化 LPDDR5X 記憶體解決方案,支援 NVIDIA GB300 Grace Blackwell Ultra 超級晶片。美光 HBM3E 12 層堆疊(12H)36GB 產品,則用於 NVIDIA HGX B300 NVL16 和 GB300 NVL72 平台;HBM3E 8 層堆疊(8H)24GB 產品則供應 NVIDIA HGX B200 和 GB200 NVL72 平台。HBM3E 全面部署於 NVIDIA Hopper 和 Blackwell 系統中,凸顯美光在加速 AI 工作負載的關鍵地位。
在 GTC 2025 大會上,美光展示完整 AI 記憶體與儲存產品組合,涵蓋從資料中心到邊緣裝置的應用。產品線包括 HBM3E 8H 24GB、HBM3E 12H 36GB、LPDDR5X SOCAMM、GDDR7、高容量 DDR5 RDIMM 與 MRDIMM,以及資料中心 SSD、汽車與工業用儲存裝置,如 UFS 4.1、NVMe® SSD 和 LPDDR5X,滿足邊緣運算需求。
美光資深副總裁暨運算與網路事業部總經理 Raj Narasimhan 表示,AI 正推動運算架構轉型,而記憶體是這項變革的核心。美光透過 HBM 和低功耗記憶體,為 NVIDIA Grace Blackwell 平台帶來更高效能和能效,進一步提升 GPU 運算能力。
美光 HBM3E 12H 36GB,在相同尺寸下提供比 HBM3E 8H 24GB 多 50% 容量,且相較競品同規格產品,功耗降低 20%。
美光也計畫推出 HBM4,持續提升性能,預計效能較 HBM3E 再增超過 50%。