設計工具
儲存裝置

本人有關中國快閃記憶體市場高峰會及記憶體高峰會的要旨意見

Jeremy Werner | 2024 年 4 月

我有幸於 3 月 20 日舉行的 CFMS(中國快閃記憶體市場高峰會)| MemoryS 2024 上發表主題演講。我演講的題目是「美光記憶體和儲存裝置:推動 AI 革命」,我誠邀您觀看。

最值得關注的新興趨勢之一 當屬會上討論的話題,即資料中心和邊緣裝置(尤其是 AI PC(個人電腦)和 AI 智慧型手機)將如何攜手以最佳效率提供 AI 體驗,進而節省資源。與幾年前相比,方向明顯發生改變,當時的傳統觀點認為所有運算功能都會移轉到雲端。當時,業界的願景是,每個邊緣裝置都只是一個精簡用戶端,所有應用程式都在雲端運行,所有資料都存儲在雲端,及所有裝置都始終連接。

也許在遙遠的未來,隨著科技趨勢趨向振盪,這個願景將會重新浮現。但在可預見的未來,由於功耗、成本、延遲、網絡頻寬的限制,以及人類構建(並承擔構建費用)資料中心和通訊基礎架構速度的現實,在雲端執行每個工作負載完全不可行。這些現實問題對記憶體和儲存裝置的未來意義重大。

第一個重要的認知是,降低資料中心的功耗比以往任何時候都更加重要。這一直是降低總成本、節約能源和最大程度減少資料中心碳足跡的重要指標。但現在這是一項必要條件,因為它已成為限制大型雲端服務供應商和 AI 基礎架構營運商建立基礎架構的因素。 

這意味著什麼? 

  • 相較於傳統 HDD,使用高容量 SSD 可顯著減少資料中心佔用空間,最多可達五倍。雖然 SSD 的初始投資較高,但長遠而言,它在節省支出、冷卻、電力和空間方面表現可觀,從而提升了每秒兆次運算 (TOPS) 速率。在每 TB 功率使用基礎上,HDD 需要短行程才能實現最佳 AI 工作負載效能,其功耗比目前的 30.82TB SSD 高出 2.3 倍。1 當將 HDD 與未來的更高容量 SSD 進行比較時,這種差異預計將增加五倍。因此,考慮到與建造其他資料中心和發電廠相關的巨大成本,投資 SSD 應在經濟上保持審慎。

 

  • 本地儲存(主要是適用於 AI 手機的 UFS 及適用於 AI PC 的 NVMe SSD)的效能和容量需求,將不可避免地以比先前預期的更快速度增加。在過去五至十年,遊戲和媒體製作應用程式(例如 YouTube、Instagram 和 TikTok)推動了對更高效能和容量的需求。但通常情況下,在成熟市場中,這些應用程式佔這些裝置所有使用者的不到 20%。與先前的遊戲和媒體製作應用程式一樣,AI 是每個人都將使用的普遍應用程式,進一步推動本地儲存需求。使用者體驗是這個領域至關重要,因此美光專注於優化產品,以提供要求最苛刻的應用程式和使用者體驗。

現在正是發展儲存裝置與創新的絕佳時機!智慧時代即將來臨,我們可以為人類的利益塑造未來。美光的 HBM3E、高容量 DIMM、LPDDR5X、LPCAMM、資料中心 SSD、用戶端 SSD 和 UFS 等記憶體和儲存裝置的發展,必將成為未來的關鍵一環。

 

1. SSD 系統機箱功率為 =1000W,每個系統配備 20 個 SSD,=每個 SSD 功率為 50W
HDD 系統機箱功率為 =1200W,每個系統配備 30 個 HDD,=每個 HDD 功率為 30W
SSD W/TB = 50W/30.82TB,HDD W/TB = 30W/8TB 可用 HDD 容量

Corporate Vice President & General Manager, Storage Business Unit

Jeremy Werner

Jeremy is an accomplished storage technology leader with over 20 years of experience. At Micron he has a wide range of responsibilities, including product planning, marketing and customer support for Server, Storage, Hyperscale, and Client markets globally. Previously he was GM of the SSD business at KIOXIA America and spent a decade in sales and marketing roles at startup companies MetaRAM, Tidal Systems, and SandForce. Jeremy earned a B.S.E.E. from Cornell University and holds over 25 patents or patents pending.