ASUS Launches Advanced Liquid-Cooled AI Servers
ASUS、高度な液冷式AIサーバーを発表
As of March 2026, ASUS has officially shifted the landscape of computing by launching a series of Advanced Liquid-Cooled AI Servers.
2026年3月現在、ASUSは高度な液冷式AIサーバーシリーズを投入し、コンピューティングの様相を公式に変えました。
Moving away from traditional air cooling, these new systems are designed to handle the extreme power density required for next-generation AI.
従来の空冷式から脱却し、これらの新しいシステムは、次世代AIに必要な極限の電力密度を処理するように設計されています。
At the heart of this innovation is the ASUS AI POD, a powerhouse built on the NVIDIA Vera Rubin architecture, capable of supporting trillion-parameter LLM training with 100% liquid cooling.
この革新の核となるのが、NVIDIA Vera Rubinアーキテクチャ基盤の強力な基盤であるASUS AI PODであり、100%液冷による兆単位のパラメータを持つLLMの学習を支援できます。
By utilizing methods like Direct-to-Chip cooling, ASUS enables hardware to run at peak capacity without thermal throttling.
ASUSはダイレクト・ツー・チップ冷却のような手法を活用することで、熱によるスロットリングを起こさず、ハードウェアが最大能力で稼働できるようにしました。
A standout achievement is the system's energy efficiency; these setups have reached a Power Usage Effectiveness (PUE) of 1.18.
際立った成果はシステムのエネルギ効率であり、これらセットアップの電力使用効率(PUE)は1.18に達しました。
This is a critical milestone, as it proves that these 'AI Factories' can achieve massive compute density while drastically cutting operational costs and carbon emissions.
これら『AI工場』が運用コストと炭素排出量を劇的に削減しながら、大規模な計算密度を実現できることを証明したため、これは重要なマイルストーンとなります。
Through partnerships with industry leaders like Vertiv, ASUS is transforming high-performance computing from an experimental endeavor into a reliable, sustainable, and purpose-built infrastructure for the future of artificial intelligence.
Vertivのような業界リーダーとのパートナーシップを通じて、ASUSは高性能コンピューティングを実験的な取り組みから、人工知能の未来のために信頼性が高く、持続可能で目的に合ったインフラへと変革しています。
