menu-icon
anue logo
馬來西亞房產鉅亨號鉅亨買幣
search icon


雜誌

記憶體發飆

理財周刊


文.洪寶山


OpenAI 執行長 Sam Altman 於十月初訪問韓國,正式與三星及 SK 海力士簽署戰略合作意向書,為全球 AI 超級數據中心「Stargate」計畫提供記憶體晶片與 AI 基礎設施。根據韓國官方說法與法人預估,OpenAI 計畫至 2029 年向三星與 SK 海力士下單 90 萬片 DRAM(多數為 HBM) 晶圓,總金額上看約 700 億美元,這將成為全球 AI 運算史上最大規模的記憶體採購合約之一。

這個需求量遠超目前全球 HBM 月產能。根據 TrendForce 和多方產業分析,目前全球 HBM 月產能僅約 34 萬至 54 萬片,OpenAI 這筆訂單相當於全球 HBM 產能的 200% 以上,約兩到三倍。

記憶體價格持續走揚

記憶體市況自 2023 下半年快速反轉,價格持續走揚。SK 海力士、三星、美光,積極擴充 HBM3E、HBM4 產能,也因產能調度,壓縮 DDR5 等標準 DRAM 供應,導致部分產品短缺。

AI 伺服器全面採用 HBM,DRAM 需求單機含量大增 (每台 AI 伺服器 DRAM 年增超過 17%)。HBM 的技術門檻越來越高,帶來產能吃緊與結構性轉變。AI 讓記憶體不再只是「便宜堆料」,而是突破系統性能瓶頸的關鍵。

推論 AI 應用暴增下,近線 HDD 出現供應短缺,促使高容量 QLC SSD 需求暴增,部分供應商已考慮將 SSD 用於冷資料用途。隨著 AI 模型與加速器頻寬快速上升,存儲軟體創新需讓 SSD 扮演「慢速記憶體」以補足 DRAM/HBM 的容量限制。也強調大量資料湖 (data lakes) 趨於採用高容量 SSD 而非傳統 HDD 因功耗、頻寬效率優勢。

冷資料的主要特徵:(1) 寫入頻率低、讀取頻率低,(2) 容量龐大、存放時間長,(3) 資料有效期久 (例如長期備份、AI 原始訓練素材、舊模型權重)。冷資料放在 NAND 上雖然速度快、省空間,但必須解決「長期保存」與「高密度可靠性」的平衡問題。

冷資料需求「反向驅動」NAND Flash 廠商走向 QLC/PLC 化+超高層堆疊+低頻耐用性設計,形成與高效能 HBM/TLC 市場完全不同的分支。冷資料對 NAND 市場的結構性影響主要在「分層分工」:上層 TLC+下層 QLC/PLC 架構讓控制器廠商、韌體開發商有巨大創新空間。

AI 資料分層 群聯與旺宏分工

如果把 AI 資料分層成五層:DRAM→HBM→TLC SSD→QLC SSD→WORM NAND/Tape,群聯掌握中間兩層 (TLC/QLC SSD),旺宏掌握最底層 (永久冷封存)。NAND 韌體將整合 AI 模型,用以預測哪些區塊即將成為冷資料、提早搬遷或降頻。冷資料使用 SSD 最大挑戰是:如何在低頻寫入下延長壽命、降低功耗、強化 ECC。群聯的 SmartECC™/SmartDataRefresh™/LifeExtend™韌體套件正好能解這個痛點。

旺宏主打 SLC NAND/NOR Flash,其特性是:(1) 資料保持性高 (>10 年),(2) 耐擦寫次數高 (>100,000 次),(3) 功耗低、誤碼率低。雖然單位成本高,但非常適合:AI 模型永久快照 (Model Snapshot)、重要冷資料的「主封存層」、工業、國防資料保存、車用黑盒子、太空應用資料記錄。

冷資料時代正在重新定義 NAND Flash 的價值鏈,從「速度競賽」變成「容量與可靠性權衡」的時代。誰能吃到 AI 記憶體商機?QLC/PLC NAND+智慧化控制器將成為 AI 資料湖、推論快取、冷儲存的核心。AI 伺服器儲存層轉向 SSD(特別是 QLC SSD、PCIe Gen5 NVMe),需供應高容量、高頻寬模組 (64GB~1TB),模組商與 SSD 控制器整合能力成為差異化來源。

群聯 + 威剛 + 十銓 組成資料湖供應鏈

通路商開始整合軟體、控制器、韌體,從賣料件變賣「AI Ready 儲存方案」,模組廠升級為 Solution Provider。AI 資料湖與推論節點增加「冷資料快取層」需求,模組商若能供應高容量低成本記憶體 (DDR5+SSD+NAND 模組),機會大。SSD 模組走向冷資料應用,群聯 + 威剛 + 十銓可成為資料湖供應鏈。AI 伺服器記憶體模組大幅成長,金士頓、威剛將是最大受惠者。

來源:《理財周刊》1311 期
更多精彩內容請至 《理財周刊

section icon

鉅亨講座

看更多
  • 講座
  • 公告


    Empty
    Empty