設計工具
應用程式

AI 和機器學習需要高效能儲存裝置:第三部分

Micron Technology | 2019 年 3 月

人工智慧和機器學習需要高效能儲存裝置系列,第三部分:執行

又見面了!在本期人工智慧系列部落格中,我想談談 AI 實施的第三個也是最後一個主要階段:執行(見下圖中的完整 AI 流程)。大家可能還記得,在前兩篇部落格中,我回顧了 AI 流程的攝取和轉換階段以及訓練階段。正如我們所看到的,在這兩個階段,透過以 SSD 和記憶體的形式整合快閃記憶體,可以對整體效能產生巨大影響。

在攝取/轉換階段,越快地將各種來源的原始資料導入 AI 基礎架構,並將其轉換為適合建模的可用標準化格式,就能越快地進入訓練階段。雖然訓練階段高度依賴 CPU(更具體地說是 GPU),但我們發現,在解決方案中新增快閃記憶體和記憶體會產生重大影響。更多詳情,請閱讀我的同事 Wes Vaske 關於記憶體和儲存裝置對 AI 影響的部落格。

AI 1

AI 流程的執行階段是整個流程的關鍵階段。這一階段對您實現 AI 的有益優勢至關重要。在執行階段,我們必須將經過訓練和改進的 AI 模型部署到各種目標邊緣裝置(攝影機、感測器等)上,並用於做出決策,這在 AI 領域也被稱為「推理」。在許多情況下,您還需要在推理過程中不斷評估 AI 模型的準確性。這種趨勢或回饋分析通常不在邊緣或 IoT 裝置上進行,而是作為使用裝置採集的資料和推理結果的分析過程的一部分。

AI 2

使用場景的廣度幾乎不受限制,通常跨越主要側重於即時分析和決策的使用案例,或要求即時決策和即時後分析的場景。根據使用案例的不同,記憶體和儲存裝置的比例或對記憶體和儲存裝置的依賴程度也不同。下面,我將介紹一對示例性的實際用例。

即時分析

以下用例我們可能都很熟悉:使用手機鏡頭識別本地商家,或將手機鏡頭用作尺寸測量裝置(例如,回答「我的沙發有多長」這類問題)。根據您使用的手機,推理完全在本地裝置上執行。在這些例子中,手機在完成推理後無需保留資訊。該場景完全是即時的。由於智慧型手機會處理相機資料,因此該用例更依賴於記憶體而非儲存裝置。在該用例中,並不真正需要長期甚至中期儲存。一旦完成推理,就不再需要資料(影像)。

在這些小型遠距/行動裝置上執行推理時,兼顧高效能和低功耗的記憶體是重點所在。美光提供適用於行動裝置、汽車和自訂邊緣裝置的各種規格尺寸的低功耗 DRAM 解決方案

利用推理後分析進行即時分析

在許多商業環境中,必須不斷對推理過程進行重新分析,以確保 AI 推理引擎達到預期目標——這是一個不斷改進過程的回饋循環。在這些使用案例中,快閃記憶體起著非常重要的作用。執行這種分析的速度越快,改進即時推理的速度就越快。此外,所需的儲存裝置容量及其位置將取決於多個因素,無論是短期、裝置內保留,還是長期、裝置外大數據儲存庫。最後,資料保留時間也會影響您對所部署儲存解決方案的決策。

在許多汽車使用案例中,可能需要裝置內儲存以滿足監管要求。自動駕駛汽車不僅需要進行大量即時推理,它們還需要在一定時間內保留來自各種感測器的所有資料(相機、發動機效能資料等),以便美國 NHTSA 等機構可以用來分析碰撞事故。事實上,到 2020 年,典型車輛預計將包含超過 3 億行代碼,儲存容量將超過 1 TB (terabyte)!

AI 3

在其他案例中,裝置內儲存容量只需要支援將資料傳輸到更大的大數據儲存庫,以便進行廣泛的後處理分析。美光的員工對這類案例應該很熟悉。正如我們過去討論過的那樣,美光利用晶圓分析流程(AI 推理)中的資料來不斷改進製造流程。我們在去年的 Data Works 高峰會上討論過這點,我們在會上表明,儲存裝置不僅對推理後分析非常重要,而且儲存裝置的類型會極大地影響分析效能。在本案例中,即使在 HDD 上的現有傳統大數據環境中新增一個高效能 NVMe SSD,也能帶來巨大的改進。

美光基礎架構加速智慧化

美光提供適用於各種應用程式工作負載的 SSD,以及針對網路邊緣和 IoT 領域工業級 microSD 卡。

請繼續關注美光部落格,瞭解我們正在進行的評估的更多結果,此次評估對象是用於 AI/ML 工作負載的儲存裝置和記憶體。

有關這些產品和其他美光產品的更多資訊,以及它們如何幫助您在下一個 AI/ML 專案中取得成功,請瀏覽 micron.com/AI。

Linkedin 上與我們聯絡,瞭解最新資訊。