歡迎來到 Micron.com,請登入或註冊帳戶以繼續。
輸入無效。不支援特殊字元。
加快人工智慧創新的速度
HBM3E 採用領先業界的製程技術,專為 AI 和超級運算所打造
工程報告:HBM 對 LLM 效能的影響
常見問答
美光 HBM3E 8 層堆疊 24GB 將從 2024 年第二季開始用於 NVIDIA H200 Tensor 核心 GPU。美光 HBM3E 36GB 12 層堆疊樣品現已推出。
美光的 HBM3E 8 層堆疊和 12 層堆疊模組提供大於 9.2Gbps 的領先業界針腳傳輸速度,並且能支援 HBM2 第一代裝置的向下相容資料速率。
美光的 HBM3E 8 層堆疊和 12 層堆疊解決方案提供業界領先的頻寬,每個位置超過 1.2 TB/s。HBM3E 有 1024 個 IO 針腳,HBM3E 針腳傳輸速度大於 9.2Gbps,實現了高於 1.2TB/s 的速率。
美光業界領先的 HBM3E 8 層堆疊提供每個位置 24GB 容量。最近發佈的美光 HBM3E 12 層堆疊立方體將提供令人瞠目的每個位置 36GB 容量。
美光的 HBM3E 8 層堆疊和 12 層堆疊解決方案提供業界領先的頻寬,每個位置大於 1.2 TB/s。HBM3E 有 1024 個 IO 針腳,HBM3E 針腳傳輸速度超過 9.2Gbps,實現了大於 1.2TB/s 的速率。
HBM2 記憶體提供 8 個獨立通道,每個針腳的執行速度達到 3.6Gbps,並提供高達 410GB/s 的頻寬,有 4GB、8GB 和 16GB 三種容量可選。HBM3E 提供 16 個獨立通道和 32 個虛擬通道。美光的 HBM3E 以領先業界的頻寬(每個位置超過 1.2 TB/s),提供大於 9.2Gbps 的針腳傳輸速度。美光的 HBM3E 使用 8 層堆疊技術提供 24GB 容量,使用 12 層堆疊技術提供 36GB 容量。美光的 HBM3E 功耗比競爭對手低 30%。
請參閱我們的產品簡介。
相關資訊
1. 資料速率測試估計是根據製造測試環境中執行的 Pin 速度 Shmoo 圖。
2. 相同堆疊高度增加 50% 容量。
3. 功率和效能估計根據工作負載量使用案例的模擬結果。
4. 根據參照 ACM 出版物的內部美光模型,與目前出貨平台(H100)相比。
5. 根據內部美光模型,參照 2023 年 2 月 27 日 Bernstein 的研究報告《NVIDIA(NVDA):由下而上調整 ChatGPT 機會大小的方法》,與目前出貨平台(H100)相比。
6. 根據使用已上市 H100 平台和線性推斷的系統測量。