從雲端到邊緣裝置,快速興起的 AI 應用為我們形塑了未來智慧世代的樣貌。然而,隨著 AI 模型與數據量的指數成長,現有的運算基礎架構足以支援此願景的實現嗎?
在 2021 年台北國際電腦展 Computex 展會中,美光資深副總裁暨運算與網路事業部總經理 Raj Hazra 以「 記憶體是 AI 創新的核心 」)為題發表演講,針對推動 AI 普及應用面臨的挑戰,以及記憶體與儲存技術創新所扮演的重要角色做了詳盡說明。
AI 持續發展的重要關鍵:擴增運算規模
Hazra 表示,據統計,到 2025 年,全球 90% 的企業應用程式都將內建 AI 功能。未來,AI 將不僅是用來訓練和預測,而是更廣泛地擴展到產品開發、技術服務、製造,甚至人才招募、供應鏈管理等各個層面,成為企業運作的命脈。
「面對 AI 的快速成長與驚人潛力,現在,我們應該考慮的是,要如何推動 AI 的持續發展,而這也正是我們所面臨的挑戰。」
他以常用的 GPT-3 自然語言處理模型為例,在短短兩年內,其模型參數便從 1750 億個劇增至 1.6 兆個。因此,當業界致力於使 AI 更準確、有效與普及的同時,也帶來了更高的運算性能挑戰,使得運算基礎架構必須隨著 AI 成長的腳步持續擴展。
「我們討論了許多關於運算技術的創新,在短短幾年內,處理器效能也已從 tera、peta 成長到 exa 等級。雖然運算速度提升是必要的,但我們卻忽略了記憶體革新。若沒有結合運算與記憶體的共同創新,將難以滿足 AI 的複雜運算需求」,Hazra 指出。
2 種方法擴展 AI 的基礎運算架構
目前 AI 的擴展主要有兩種模式:垂直擴展(scaling up)或水平擴展(scaling out)。前者是指在單一節點或單一共享記憶體叢集。儘管我們在記憶體、儲存、頻寬、容量和運算性能方面取得了大幅進展,但仍會受到單一節點上實體、技術和成本的限制。
但若把垂直擴展的單一節點,再以水平擴展方式連結在一起,也就是業界積極推動的超大規模(hyperscale)運算,形成分散式架構,將能夠幾乎不受限制的支援各種規模的 AI 應用需求,實現 AI 無所不在的目標。
運算架構革新:新的記憶體層級
而從運算架構來看,過去業界是以 CPU 為中心,直接連結 DRAM,然後是硬碟以及現在的固態硬碟。「但此簡單方式,再也無法符合資料密集的 AI 工作負載,我們需要更先進的平台架構,考慮如何為這些工作負載打造所需的記憶體和儲存資源。」
Hazra 指出,在靠近 CPU 處,有所謂的近端記憶體(near memory),過去是指直接連接記憶體,如今已發展為封裝記憶體(in-package memory)的組合,這些包括了功能日益強大的 DDR4、DDR5 記憶體。
「雖然近端記憶體的容量越高越好,但就技術與經濟層面來看都充滿挑戰。因此,業界提出了支援 Compute Express Link(CXL)標準的遠端記憶體(far memory)。也就是說,在數據進入儲存元件之前,增加一個新的層級。透過導入新的記憶體層級,並使記憶體和儲存層級能無縫匯聚,可使數據傳送至運算單元的運作更有效率。」
「藉由集結分散式的記憶體、儲存與運算架構,系統將能夠依據實際工作負載,準確規劃記憶體和運算資源,進而運用高效能和無限規模,來解決日益龐大的 AI 應用。當我們從既有的平台朝此全組合式(composable)系統移轉時,新的運算典範將開啟嶄新的可能性。」
AI 基礎架構貢獻,美光的角色在哪裡?
最後,Hazra 總結說,我們樂見業界為推動 AI 普及所做的各種努力。在美光,我們已建立了涵蓋記憶體和高效能固態硬碟的完備產品組合,未來亦將推出支援 CXL 標準的記憶體。
美光將專注於技術研發、提升系統與軟體能力,以及與客戶、生態系統夥伴共同合作等多項策略,透過持續在記憶體和儲存技術投注創新能量,開發未來所需的解決方案,以推動未來 AI 應用的持續擴展。
(本文開放合作夥伴轉載。)