Giga Computing、AIデータセンター向けの新しい省電力ハードウェアを発表
技嘉科技推出用於 AI 資料中心的新型節能硬體
生成AIの急速な台頭はAIの産業化をもたらし、データセンターは「AI工場」へと進化しなければならなくなった。
生成式AI的迅速崛起帶動了AI的產業化,數據中心必須演進為「AI工廠」。
GIGABYTE[ギガバイト]の子会社であるGiga Computing[ギガ・コンピューティング]は、個別の[こべつ]サーバー管理からラック単位のオーケストレーション戦略へと移行することで、この変革を主導している。
技嘉科技旗下子公司技嘉運算(Giga Computing)正引領這一轉變,從個別伺服器管理轉向機櫃級編排策略。
現代のAIワークロードは、ラックあたり50〜100kW[キロワット]をしばしば超える膨大な電力を必要とするため、Giga Computingはこうした要件に対処するための包括的なインフラを提供している。
由於現代AI工作負載需求極大的功率,每機櫃通常超過50-100kW,Giga Computing提供全面的基礎設施以應對這些要求。
同社の主力製品であるGIGAPOD[ギガポッド]ソリューションは、数百のGPUを単一のモジュール式クラスタに統合し、最高の効率を実現するように設計されている。
其旗艦級GIGAPOD解決方案將數百個GPU集成至單一模組化叢集,旨在實現最高效率。
このような高密度ハードウェアが生み出す激しい熱を管理するため、同社は液冷(Direct Liquid Cooling、DLC)を採用しており、従来の空冷と比べてエネルギーコストを大幅に低減させている。
為了管理這類高密度硬體所產生的強烈熱能,他們採用直接液冷(DLC)技術,與傳統空冷相比,該技術顯著降低了能源成本。
統合管理は、予測分析とリソース割当てのシステム中枢として機能するGIGABYTE POD Manager[ギガバイト・ポッド・マネージャー]によって行われる。
此整合過程由GIGABYTE POD Manager管理,它充當系統大腦,用於預測分析和資源分配。
施設設計からシステム統合に至るまでL12レベルのターンキーサービスを提供することで、Giga Computingは高性能データセンター構築における物流的な複雑さを簡素化している。
透過提供包含從設施設計到系統整合的L12級統包式服務,Giga Computing正在簡化建置高性能數據中心的後勤複雜性。
GAIFA[ガイファ]アクセラレーターのような取り組みを通じて、同社はコンピューティングの未来が単一チップの速度だけでなく、データセンターのエコシステム全体の統合スループットに依存していることを証明している。
透過GAIFA加速器等計畫,他們證明了運算的未來不僅取決於單一晶片的速度,更取決於整體數據中心生態系統的綜合吞吐量。
