Giga Computing、AIデータセンター向けの新しい省電力ハードウェアを発表
Giga Computing、AIデータセンター向けの新しい省電力ハードウェアを発表
生成AIの急速な台頭はAIの産業化をもたらし、データセンターは「AI工場」へと進化しなければならなくなった。
GIGABYTE[ギガバイト]の子会社であるGiga Computing[ギガ・コンピューティング]は、個別の[こべつ]サーバー管理からラック単位のオーケストレーション戦略へと移行することで、この変革を主導している。
現代のAIワークロードは、ラックあたり50〜100kW[キロワット]をしばしば超える膨大な電力を必要とするため、Giga Computingはこうした要件に対処するための包括的なインフラを提供している。
同社の主力製品であるGIGAPOD[ギガポッド]ソリューションは、数百のGPUを単一のモジュール式クラスタに統合し、最高の効率を実現するように設計されている。
このような高密度ハードウェアが生み出す激しい熱を管理するため、同社は液冷(Direct Liquid Cooling、DLC)を採用しており、従来の空冷と比べてエネルギーコストを大幅に低減させている。
統合管理は、予測分析とリソース割当てのシステム中枢として機能するGIGABYTE POD Manager[ギガバイト・ポッド・マネージャー]によって行われる。
施設設計からシステム統合に至るまでL12レベルのターンキーサービスを提供することで、Giga Computingは高性能データセンター構築における物流的な複雑さを簡素化している。
GAIFA[ガイファ]アクセラレーターのような取り組みを通じて、同社はコンピューティングの未来が単一チップの速度だけでなく、データセンターのエコシステム全体の統合スループットに依存していることを証明している。
