華碩推出先進液冷 AI 伺服器

華碩推出先進液冷 AI 伺服器

截至2026年3月,ASUS已正式藉由推出一系列先進液冷人工智慧(ㄖㄣˊㄍㄨㄥˋㄓˋㄏㄨㄟˋ)伺服器,改寫了運算領域的版圖。

orgASUS
concept人工智慧

這些新系統捨棄了傳統的氣冷方式,旨在應對下一代人工智慧所需的極高功率密度。

concept人工智慧

這項創新的核心在於ASUS AI POD,這是一個建立在NVIDIA Vera Rubin架構上的強大動力中心,能透過100%液冷技術支援兆級參數的LLM(大型語言模型)訓練。

techASUS AI POD
orgNVIDIA
techVera Rubin
techLLM

透過採用晶片直冷(Direct-to-Chip cooling)等方法,ASUS使硬體能在不發生散熱降頻(thermal throttling)的情況下,以峰值效能運作。

tech晶片直冷
orgASUS

該系統的一項傑出成就是其能源效率;這些配置已達到1.18的電力使用效率(PUE)。

concept電力使用效率

透過與Vertiv等產業領導者的合作,ASUS正將高效能運算從一項實驗性嘗試,轉變為可靠、永續且專為人工智慧未來所打造的基礎設施。

orgVertiv
orgASUS
tech高效能運算
concept人工智慧
🎉

文章閱讀結束

你閱讀了 6 句重點內容。

挑戰模式

閱讀理解

ASUS引進液冷伺服器的主要原因為何?

正確答案

為了管理超越氣冷極限的極端功率密度。

在該脈絡下,1.18的PUE代表什麼意義?

正確答案

資料中心具備高水準的能源效率。

ASUS AI POD採用何種架構?

正確答案

NVIDIA Vera Rubin。

「零降頻」(zero-throttle)效能的主要優勢為何?

正確答案

硬體能在不因過熱而減速的情況下,以峰值效能運作。

液冷如何影響運算密度?

正確答案

由於其排除熱量的效率高於空氣,因此能允許更高的GPU密度。

Ringoo Icon

使用 Ringoo App 學習更快速

追蹤你的學習進度,並透過互動式練習獲得即時回饋。