ASUS、高度な液冷式AIサーバーを発表
華碩推出先進液冷 AI 伺服器
2026年3月現在、ASUSは高度な液冷式AIサーバーシリーズを投入し、コンピューティングの様相を公式に変えました。
截至2026年3月,ASUS已正式藉由推出一系列先進液冷人工智慧(ㄖㄣˊㄍㄨㄥˋㄓˋㄏㄨㄟˋ)伺服器,改寫了運算領域的版圖。
この革新の核となるのが、NVIDIA Vera Rubinアーキテクチャ基盤の強力な基盤であるASUS AI PODであり、100%液冷による兆単位のパラメータを持つLLMの学習を支援できます。
這項創新的核心在於ASUS AI POD,這是一個建立在NVIDIA Vera Rubin架構上的強大動力中心,能透過100%液冷技術支援兆級參數的LLM(大型語言模型)訓練。
ASUSはダイレクト・ツー・チップ冷却のような手法を活用することで、熱によるスロットリングを起こさず、ハードウェアが最大能力で稼働できるようにしました。
透過採用晶片直冷(Direct-to-Chip cooling)等方法,ASUS使硬體能在不發生散熱降頻(thermal throttling)的情況下,以峰值效能運作。
際立った成果はシステムのエネルギ効率であり、これらセットアップの電力使用効率(PUE)は1.18に達しました。
該系統的一項傑出成就是其能源效率;這些配置已達到1.18的電力使用效率(PUE)。
これら『AI工場』が運用コストと炭素排出量を劇的に削減しながら、大規模な計算密度を実現できることを証明したため、これは重要なマイルストーンとなります。
這是一個關鍵的里程碑,因為它證明了這些「AI工廠」能夠在實現大規模運算密度的同時,大幅降低營運成本與碳排放。
Vertivのような業界リーダーとのパートナーシップを通じて、ASUSは高性能コンピューティングを実験的な取り組みから、人工知能の未来のために信頼性が高く、持続可能で目的に合ったインフラへと変革しています。
透過與Vertiv等產業領導者的合作,ASUS正將高效能運算從一項實驗性嘗試,轉變為可靠、永續且專為人工智慧未來所打造的基礎設施。
