對於科技使用者而言,我們生活在一個激動人心的時代。AI 已成為一股市場力量,正改變經濟的各個領域。AI 和機器學習(ML)最終被嵌入商業應用程式並在其中提供,將主流分析/AI 作為商業業務的實用推動因素。然而專家認為我們還處於 AI 的早期階段。儘管對 AI/機器學習的討論「不絕於耳」,但要想找到切實可行的建議,取得真實、貼近生活的效果,卻難上加難。
因此,就像前排那個超級聰明的孩子一樣,我們舉起了手。「這兒,這兒!請找我們!」
美光儲存團隊的最新白皮書旨提供實用的 AI 建議,該團隊為資料中心和雲端管理設計了革命性的 3D NAND 快閃儲存技術。下載「AI 和機器學習需要快速、靈活的基礎架構」,以瞭解三項主要創新如何使主流 AI 成為可能,以及為什麼合適的儲存裝置和記憶體是更快、更準確的 AI/機器學習訓練和推論的基礎。
為什麼要關注 AI 儲存裝置和記憶體? 我的美光同事 Wes Vaske 探討了 AI/ML 系統的基礎架構。在他的部落格「透過記憶體和儲存深入資料智慧的核心」中,他討論了缺乏討論底層儲存或記憶體的效能資料。相反,討論的焦點是可用的不同運算資源(GPU、CPU、FPGA、TPU 等)。但這種狀況正在發生變化,與「早期」情況有關。Wes 表示:「未來將依賴我們建構能夠滿足次世代 GPU 要求的儲存系統的能力。」
擷取、轉換、訓練、執行
在 AI 向高度適應性、自我訓練、無所不在的主流機器學習系統轉變的過程中,美光記憶體和儲存裝置一直是主角。另一位同事,美光資深技術行銷工程師 Tony Ansley 發佈了由三部分組成的系列部落格,其中「人工智慧和機器學習需求高效能儲存」將其推向高潮。Tony 圍繞 AI/ML 工作流程的四個階段進行了基礎架構討論並提出建議。擷取、轉換、訓練、執行
Tony 說:「我想強調我們認為需要克服的關鍵障礙,以及在組織作為商業企業開始 AI/ML 之旅時,美光可提供哪些幫助。」 從 Tony 的部落格和其他美光內容(例如我們的 AI 資訊圖表)中,新白皮書詳細介紹快閃記憶體和儲裝置存如何讓您的更多數據更接近處理引擎,以實現更快的分析。
速度更快,並行程序更多
GPU 是實現更快處理的關鍵因素,可以並行處理數百萬個作業,而 CPU 則使用循序。這些美光產品共同提供了廣泛的高效能元件,這些元件對於現在更廣泛部署的先進 AI/ML 乃至深度學習解決方案至關重要。您的解決方案為 AI 引擎獲取可用訓練資料集的速度越快,您就能越快部署這項新技術並從中受益,進而建立更智慧的邊緣功能。
當快速、高效能 SSD 支援並行程序時,機器學習流程可以加速
適用於網路邊緣的小型強大記憶體裝置
高效能、大容量的記憶體和多晶片封裝為AI 訓練和推論引擎提供動力──無論是在雲端還是嵌入至行動裝置和邊緣裝置中。AI 系統的創新記憶體技術是美光關注的焦點。這本白皮書更詳細地介紹了如何即時提供大量資料來訓練和加速推論,以及如何利用記憶體和儲存裝置使邊緣裝置保持智慧、快速和有效率。
關注 AI/ML 的記憶體和儲存裝置的時機到了
美光委託 Forrester Consulting 進行的一項研究表明,對於大多數組織來說,AI 架構正成為焦點。當被問及:升級或重新架構記憶體和儲存裝置對於實現未來 AI/ML 培訓目標是否至關重要? 是的,美國和中國的大型企業管理複雜資料集架構或策略的 200 名 IT 和業務專業人士表示,幾乎 80% 的情況下都是如此。此外,受訪者表示,將記憶體和運算更緊密地結合對於 AI/ML 的成功至關重要(90% 的公司認為如此)。
我們邀請您下載「AI 和機器學習需要快速、靈活的基礎架構」副本。有關美光產品如何幫助您在下一個 AI/ML 專案中取得成功的詳情,請瀏覽 micron.com/AI。請在 Twitter 上關注我們 @Micron 並在 LinkedIn 上與我們聯絡,隨時瞭解美光的最新動態。