設計工具

輸入無效。不支援特殊字元。

資料中心

Micron® 推動高效能運算的新領域

Mike Serrano, Prasi Prabhu 

運算 314 兆位數的 π 所需的一切

StorageReview 成功運算出 π 精確到小數點後 314 兆位,締造了新的世界紀錄,但此目標絕非象徵性的。這是蓄意極端工作負載量,旨在將現代伺服器儲存裝置推向極限,並回答一個實用的問題:單一系統是否能持續維持 PB 級 I/O 數月? 

經過 110 天以上的單一 Dell™ PowerEdge™ R7725 不中斷運算之後,如果儲存架構是為持續的效能和一致性而打造,而不僅僅是短暫的突發事件,這個答案相當肯定。 

概覽 

  • I/O 馬拉松:持續混合讀取/寫入壓力超過三個月
  • 單一伺服器內部超過 2.1 PB 的可用快閃記憶體容量
  • 重點適用於長期執行的高效能運算和 AI 工作:保持一致性可以保證按時獲得結果。 


為配置所需的儲存架構,StorageReview 建構了一個系統,其配備了 40 個 Micron 6550 ION SSD,每個 SSD 的可用容量為 60TB,採用 E3.S 外形尺寸。瞭解儲存規模背後的「原因」(包括硬碟數量和總容量)對於瞭解此記錄的實際表現至關重要。 

為什麼這項工作需要超過 2 PB 的快閃記憶體 

以此規模運算 π 與儲存的最終答案無關。相對於獲得結果所需的工作資料而言,輸出結果本身很小。 

在 314 兆位數時,用於記錄的應用程式的 y-cruncher 需要龐大的臨時儲存空間來支援:  

  • 用於 FFT 密集型數學運作的大型臨時數組
  • 頻繁的全面檢查站以保護數週的進展 
  • 驗證資料用於確保在長達數月的運行過程中保持正確性 
  • 運算過程中所使用的多精度中間值


為滿足這些要求,StorageReview 在系統中提供了超過 2.1 PB 的可用快閃記憶體容量。 

  • 40 塊 美光 SSD 中有 34 塊被分配為 y-cruncher 的暫存空間,構成高頻寬工作層。 
  • 剩餘的六個 SSD 以 RAID 10 配置儲存了最終的 π 值結果。 


在尖峰時期,工作負載量同時消耗了高達 1.43 PiB 的儲存空間,單一檢查點達到數百 TB。此容量並非過度配置;它是為了安全且有效率地完成運算所必需的。 

π 運算的持續 I/O 特性 

這並非旨在展示最佳性能的短期基準測試。π 運算對儲存施加了超過三個月的持續壓力,幾乎沒有停機時間或恢復的機會。 

該工作負載量展現出進階高效能運算和 AI 環境的共同特徵: 

  • 持續高頻寬讀寫運作  
  • 長時間持續高強度寫入活動  
  • 可預測的效能需求,對延遲峰值容忍度極低 
  • 運作風險,例如儲存故障可能導致數週的工作無效 


在運行過程中,系統持續保持線上狀態,從不因任何故障而恢復。   

這一點至關重要,因為許多生產工作負載的失敗並非源自於峰值效能不足, 而是由於隨著時間的推移而不穩定或不一致。長時間運行的作業會放大儲存堆疊中的微小缺陷。  

單伺服器架構中的高密度 NVMe™ 

從歷史上來看,具有這些特徵的工作負載會促使團隊採用分散式儲存系統或多節點叢集來實現足夠的容量和聚合 I/O。 

相反地,StorageReview 在單一伺服器機箱內完成了整個運算。 

透過在一台 Dell™ PowerEdge™ R7725 伺服器上部署 40 個高容量 NVMe SSD,該系統實現了以下效能: 

  • 無行動硬碟陣列的 PB 級容量
  • 聚合頻寬以維持數月的運算能力 
  • 元件和故障網域較少的簡化操作模型 
元件  規格
伺服器平台 Dell™ PowerEdge™ R7725 
處理器 雙 AMD EPYC™ 處理器 
系統記憶體 高容量 DDR5 記憶體(數 TB 級) 
儲存硬碟 40 × Micron 6550 ION NVMe SSD 
原始快閃記憶體總容量 >2.4 PB
可用的快閃記憶體容量 ~2.1 PB 
刮傷儲存分配 34 個 SSD 專用於儲存 y-cruncher 工作資料
結果儲存 最終π輸出採用 6 個 SSD 組成 RAID 10 陣列 
儲存介面 PCIe® Gen5 NVMe 
作業系統 Linux®
應用 y-cruncher(高精度數學) 


重點並非每個工作負載都需要在一台伺服器上安裝數十個硬碟。結果反而突顯了現代高密度 NVMe 儲存如何改變架構權衡。曾經需要橫向擴充才能解決的複雜工作負載,現在在某些情況下可以透過縱向擴充設計來解決。 

與現代高效能運算和 AI 工作負載的相關性 

雖然工作負載異常,運作期間觀察到的儲存行為與生產環境中的需求非常吻合,包括:

  • 大規模 AI 訓練,在頻繁進行 TB 級檢查點操作的情況下,儲存效能直接影響訓練時間。 
  • 推論流程和功能商店,其中可預測的延遲比尖峰輸送量更重要 
  • 科學模擬和建模,對於需要耗費數週或數月才能完成的工作,重啟成本會非常高。 
  • 進階分析管道,大型工作資料集必須靠近運算 


在這些情況下,儲存的一致性和耐用性會直接影響作業完成情況、系統利用率和營運風險。 

記錄的關鍵技術要點 

此記錄並非關於單獨設定的數學里程碑。它展示了現代以儲存設備為中心運算的幾個實際情況: 

  • PB 級臨時工作負載可以完全在 NVMe 上得到支援。 
  • 高容量 SSD 可承受極高的 I/O 壓力,而不會造成效能崩潰 
  • 一旦為叢集保留了單節點架構,現在可以處理工作負載 
  • 效能一致性和耐用性與原始頻寬同樣重要 


這些發現反映了儲存裝置如何逐漸決定進階運算工作負載的可行性和效率。 

資料中心策略和基礎設施規劃的影響 

除了設定技術里程碑之外,這項工作還強調了儲存裝置如何逐漸塑造現代資料中心的營運成果和架構選擇。 

對企業和 IT 領導者而言,最重要的重點不是尖峰產量,而是大規模的可預測效能。長時間運行的工作負載(無論是 AI 訓練、大規模分析或科學計算)都會加劇效率低下和故障。當儲存變成瓶頸時,昂貴的運算資源會處於閒置狀態,成本會提高,交貨時間表也會延長。 

此記錄說明,高容量 NVMe 可以透過長期持續提供資料進行運算,從而降低變異性和營運風險,從而實現平衡。 

規劃基礎設施升級時的考量 

隨著團隊為 AI 和其他資料密集型工作負載規劃升級,多項評估標準變得越來越重要: 

  • 持續輸送量而非突發效能 
    短期基準很少反映實際工作負載。在混合讀取/寫入壓力下,長達數月的一致性比幾分鐘內達到的尖峰數字重要。
  • 每台伺服器的效能密度 
    將 PB 級容量和 I/O 整合到單一系統中的能力,對功耗、空間、網路和管理開銷產生影響。 
  • 延遲可預測性和尾部行為 
    平均效能只講述故事的一部分:延遲異常值會導致管道停滯、檢查點延遲,並引發作業失敗。 
  • 穩定負載下的耐用性和可靠性 
    長期工作暴露了短期測試中未出現的弱點。隨著利用率接近穩定狀態,儲存必須維持效能和資料完整性。 
  • 運作簡單性 
    減少對外部儲存網狀架構或大型叢集的依賴,可以縮小故障的急劇半徑,並簡化部署和擴展。 

使儲存選擇與資料中心策略保持一致 

此記錄帶來的更廣泛的啟示是,現代 NVMe 儲存如何幫助我們重新思考複雜性的分佈。在某些情況下,隨著在更少的節點上實現更高的儲存密度,可以取代橫向擴展的需求。這可能導致: 

  • 更少的伺服器和互連 
  • 降低每個工作單位的功耗和冷卻需求 
  • 簡化的自動化和生命週期管理 
  • 更快的部署和復原時間 


這並不消除對分散式架構的需求,而是擴展了基礎架構團隊可用的實用設計選項集。 

隨著 AI 和分析工作負載的規模和持續時間持續增加,儲存決策不僅會影響效能,而且會影響成本效益、彈性和組織速度。 

重點 

運算 π 的 314 兆位小數,容不得絲毫誤差。該系統在持續負載下運行了 110 多天,這應該會暴露出其在性能、耐用性或可靠性方面的任何缺陷。 

無表面。 

相反,結果表明,高容量美光 NVMe SSD 能夠提供持續的效能、運作穩定性和效能密度,從而顯著改變基礎設施設計選擇。 

這堂課與 π 無關。儲存裝置的設計可支援非常大型、長期執行、資料密集型的工作負載,而無後顧之憂。若要深入瞭解我們的儲存專家,請造訪我們的資料中心 Insight 頁面。 

資料中心行銷策略與內容主管

Mike Serrano

他負責美光資料中心記憶體和儲存裝置產品組合的行銷和內容策略。Mike 主導推出了多款美光產品,包括 HBM3E、DDR5、高容量 RDIMM 和以 CXL™ 為基礎的記憶體擴充模組,以及用於本地快取和網路資料湖的儲存解決方案。

Mike 擁有聖荷西州立大學資訊系統學士學位和聖克拉拉大學 MBA 學位。

資深產品行銷經理

Prasidha Prabhu

Prasidha Prabhu 是美光核心資料中心業務部門(CDBU)的資深產品行銷經理,她負責企業、雲端和 AI 工作負載的資料中心記憶體與儲存解決方案。她領導跨生態系統合作夥伴關係、破世界紀錄的績效計劃和技術思維領導力的訊息傳遞與市場進入工作,將複雜的基礎設施進展轉化為清晰的客戶價值。Prasidha 擁有康乃爾大學工程管理碩士學位。 

Prasidha Prabhu

相關部落格