設計工具

輸入無效。不支援特殊字元。

高頻寬記憶體

符合人類抱負規模的記憶體

HBM4 為人工智慧 (AI) 和科學運算提供了所需的記憶體,從而極大地拓展了我們所能達到的成就。試想一下,推理模型透過數百萬個邏輯步驟來設計新藥,抑或研究人員透過模擬行星風暴來探究地球氣候。HBM4 能夠高速串流數 TB 的資料,使我們得以探究那些將定義我們未來的技術與科學議題。

記憶體承載雄心壯志

符合未來最嚴峻挑戰規模的技術規格

美光的 HBM4 採用了更寬的 2048 引腳匯流排介面,運作速度超過 11.0 Gbps,每堆疊可提供超過 2.8 TB/s 的頻寬,是上一代產品的兩倍以上。這種擴充的頻寬能夠滿足新興的 AI 工作負載需求,涵蓋從跨越數百萬個詞元的超長上下文窗口,到多模態 AI 系統提供穩定即時回應的各類情境。

頻寬翻倍*

HBM4 規格 - 兩倍頻寬 - 2.8TB/s

匯流排寬度翻倍*


HBM4 規格 - 匯流排寬度翻倍 - 2048 I/O

提升功耗效率*


HBM4 規格 - 效率提升 20%

* 對比 HBM4 12 層堆疊與 HBM3E 12 層堆疊。在相近的速度下,能效以每比特皮焦耳 (pJ/bit) 為單位進行衡量。

HBM4 應用領域:從推理運算到科學探索

HBM 技術透過解決兩大關鍵難題(即提供充足的資料儲存空間與實現快速資料存取),為 AI 和科學運算開闢了新的發展路徑。隨著這些領域的蓬勃發展,既需要擴充的記憶體容量,也需要極快的資料存取速度。我們最新的 HBM4 兼具高容量與超過 2.8 TB/s 的頻寬,助力人類探索更宏大的難題。

進階推理

推理模型就像科學家一樣,一步步地攻克複雜難題。這些 AI 系統需要耗費時間來評估問題,在記憶體中構建精密的邏輯鏈條,並探索多種路徑。這個過程對記憶體的消耗巨大,因為模型在進行推理時必須記住大量的上下文資訊。HBM4 確保模型能夠快速存取並更新這些資料,從而保持推理流程的順暢。

進階推理影像

多模態 AI

多模態 AI 系統能夠同時處理不同類型的資料,就像人類一樣。這包括文字、影像、視訊、聲音和感應器資料。這些系統並非一次僅處理一種格式,而是將多種格式層疊融合,從而理解那些「單一模態」AI 所無法理解的語境。HBM 支援 AI 系統將所有這些格式同時儲存在記憶體中,從而使其能夠發現彼此之間的關聯。

機器人挑選蕃茄的影像

AI 智慧體

不妨將 AI 智慧體視為一類 AI 系統,本身配備了相應的工具,能夠採取行動以完成特定工作。1這些系統必須在記憶體中儲存大量資料集,同時還能高速存取這些資料,從而協調並執行複雜的工作。這些智慧體擅長將恰當的資料與恰當的流程相連接。HBM4 為這些智慧體在多智慧體系統中協同工作提供了高頻寬,從而構建起一個共用智慧型網路。

生產製造影像

科學與高效能運算

HPC 系統使我們能夠執行那些傳統運算無法實現的模擬。例如,超級電腦在對地球大氣等複雜系統,以及木星古老風暴等行星現象進行建模時,會將大量資料集儲存在記憶體之中。HBM4 的容量決定了問題中有多大部分能納入記憶體,而其頻寬則決定了系統解決問題的速度。

地球曲率影像

常見問答

在這裡,您可以找到有關 HBM4 的常見問題解答,包括 HBM4 的製造方式、何時應與其他類型的記憶體搭配使用,以及有關我們最新 HBM 技術的其他重要詳細資料。

HBM 代表高頻寬記憶體。「4」表示這是 HBM 的第四個架構世代。與晶片彼此並列排布的傳統記憶體不同,HBM 將 DRAM 裸片垂直堆疊在一起,並利用矽通孔 (TSV) 在矽基板內部構建直接的電氣通路。這意味著資料可以直接流經矽堆疊,而無需繞行晶片邊緣。

HBM4 超過 2.8 TB/s 的頻寬,對於那些需要高速傳輸數 TB 資料的 AI 和 HPC 應用而言至關重要。例如,進階推理模型在解決問題時,必須評估數百個中間邏輯步驟。隨著計算的進行,這要求每秒有數 TB 的資料在主記憶體與處理器之間流動。

HBM4 可與其他記憶體類型搭配使用,而非取代它們。例如,在現代系統中,CPU 採用 LPDDR5 或 DDR5 來協調系統運作,而 GPU 則使用 HBM4 來處理高強度的數學運算(即複雜的演算法)。

HBM4 汲取了 HBM3 和 HBM3E 中所有行之有效的特性,並將其進一步強化。更寬的介面以超過 11.0 Gbps 的速度運作,提供的頻寬是上一代的兩倍以上。這一點至關重要,因為該技術能夠滿足各類新興工作負載的需求──從具備數百萬個詞元長上下文窗口的 AI 工作負載,到執行於次世代超級電腦之上的科學模擬工作。

DDR 記憶體等傳統 DRAM 負責處理一般運算工作,而 HBM 則支援那些需要連續處理數 TB 資料流的 AI 和 HPC 應用。HBM 的架構將超薄 DRAM 裸片堆疊起來,並透過數千個矽通孔 (TSV) 將其連接。這種垂直設計對製造精度要求極高,使得 HBM 成為製造難度較大的記憶體產品之一。

HBM4 12 層堆疊每堆提供 36GB 的記憶體容量(與上一代相同),但頻寬超過 2.8 TB/s。頻寬的提升(超過 HBM3E 的兩倍)意味著處理器能夠以更快的速度存取這一容量,從而支援比上一代產品在同等容量下所能處理的更為嚴苛的 AI 工作負載及科學模擬工作。

容量是資料記憶體可以儲存的容量,而頻寬是資料每秒可以傳輸的容量。一個 12 層堆疊的 HBM4 模組可儲存 36GB 資料。而 2.8 TB/s 的速率意味著,在短短一秒鐘內,相當於 2.8 太位元組 (TB) 的資料便可在 HBM 與處理器之間進行傳輸。容量決定了記憶體中能夠容納多少資料,而頻寬決定了存取這些資料的速度。

HBM 的製造始於三種類型矽晶圓的製備。其中一種用於製造帶有矽通孔 (TSV) 的晶片裸片,以實現電氣連接。另一種用於製造較厚的頂部裸片,且不含 TSV。第三種則用於製造帶有 TSV 的邏輯裸片,以便與系統進行介面連接。

只有通過測試的裸片,才會進入後續的組裝環節。隨後,專用設備會將多枚 DRAM 裸片堆疊在邏輯裸片之上。較厚的頂部 DRAM 晶片完善了整個堆疊結構,並提供記憶體和結構完整性。組裝完成後,完整的 HBM 立方體將進行最終測試,以驗證所有連接是否正常工作。

是的,HBM4 既適用於 GPU,也適用於客製 ASIC(專用積體電路)。該記憶體可連接至任何能夠支援其高頻寬介面並具備相應封裝的處理器。

高階運算系統(例如超級電腦)用於解決科學問題,並基於 EB 級資料訓練 AI 模型。為了高效地完成這些工作,記憶體必須具備足夠快的資料傳輸速度,以確保數千個處理器核心始終處於繁忙工作狀態。憑藉超過 2.8 TB/s 的頻寬,HBM4 加速了 AI 訓練,透過更快的 KV 快取存取降低了推理延遲,並實現了更為精細的科學模擬。

1 Anthropic。(2026 年 2 月 18 日)。在實踐中衡量 AI 智慧體的自主性。https://www.anthropic.com/research/measuring-agent-autonomy