menu-icon
anue logo
馬來西亞房產鉅亨號鉅亨買幣
search icon


美股

AI資料中心用輝達晶片最賺!大摩:GB200利潤率77.6%奪冠 若用超微MI355X 利潤負64%!

鉅亨網新聞中心


摩根士丹利周三 (27 日) 發布最新報告,儘管當前人工智慧(AI)晶片市場競爭激烈,輝達 (NVDA-US) 依然無可爭議地佔據市場主導地位,其產品的經濟效益遠超其他競爭對手。

cover image of news article
(圖:REUTERS/TPG)

報告指出,輝達目前熱銷的 GB200 NVL72 機架包含 72 個 NVIDIA B200 GPU 和 36 個 Grace CPU,透過 NVLink 互聯,整體成本約為 310 萬美元。相較之下,上一代的 8 卡配置的 H100 伺服器架構僅為 30 萬美元。然而,摩根士丹利認為,對於大型 AI 工廠(資料中心)來說,與上一代的 H100 相比,採用輝達最新的 GB200 NVL72 機架式產品更具經濟效益。


根據摩根士丹利的計算,對於 100MW 規模的 AI 工廠,特別是專注於推理的 AI 工廠,輝達的 GB200 NVL72 系統在盈利能力方面目前居於市場領先地位,其次是谷歌的 TPU v6e pod。

具體而言,使用輝達的 GB200 NVL72 機架的 100MW 規模 AI 工廠可以實現 77.6% 的利潤率,而使用谷歌 (GOOGL-US) 的 TPU v6e pod 則可實現 74.9% 的利潤率。

儘管谷歌的 TPU v6e pod 的定價尚未公開,但與輝達 GB200 NVL72 機架相比,租用谷歌的 TPU v6e pod 的平均成本要低 40% 至 50%。

有趣的是,摩根士丹利的計算顯示,採用 AMD(AMD-US) MI300 和 MI355 平台的 100MW 規模 AI 工廠的利潤率為負,分別為 - 28.2% 和 - 64%。輝達 GB200 NVL72 機架為 AI 工廠帶來的利潤率卻是最高的,達到了 77.6%。這也印證了輝達 CEO 黃仁勳的廣告語:「買得越多,省得越多!」

摩根士丹利的報告假設一個 100MW 的 AI 工廠需要 6.6 億美元的基礎設施成本,並在 10 年內折舊。 GPU 的成本從低端的 3.67 億美元到高端的 22.73 億美元不等,折舊期為 4 年。報告還通過將各種冷卻系統提供的能源效應用於全球電價的平均值來計算運營成本,最終計算出各晶片能夠為 AI 工廠帶來的利潤率。

儘管輝達 GB200 NVL72 能為 100MW 規模的 AI 工廠(利用 Llama 2 70 B 模型進行推理)帶來更好的經濟效益,其總擁有成本(TCO)也是最高的,達到了 8.0658 億美元。

相較之下,AMD 的 MI355X 平台的 TCO 略低,為 7.7411 億美元,而 Google 的 TPU v6e pod 的 TCO 最低,僅為 3.5869 億美元。這些數據顯示了不同平台在 AI 工廠運營中的經濟效益差異,並突顯了輝達在市場中的強大競爭力。



Empty