Samsung Unveils Next-Gen AI Memory Chips at NVIDIA GTC
サムスン、NVIDIA GTCで次世代AIメモリチップを発表
At the 2026 NVIDIA GTC event in San Jose, Samsung Electronics showcased its evolution from a memory manufacturer to a comprehensive "Total AI Solution" provider.
サンノゼで開かれた2026年のNVIDIA GTCイベントにおいて、サムスン電子はメモリ製造メーカーから、包括的な「トータルAIソリューション」プロバイダーへの進化を披露しました。
A major highlight was the unveiling of HBM4E, the industry’s first seventh-generation High-Bandwidth Memory.
最大の目玉は、業界初となる第7世代の高帯域幅メモリ「HBM4E」の発表でした。
Boasting 16Gbps per pin and 4TB/s bandwidth, it is set to power NVIDIA’s upcoming Vera Rubin Ultra platform.
ピンあたり16Gbps、帯域幅4TB/sを誇るこの製品は、NVIDIAの次期「Vera Rubin Ultra」プラットフォームを駆動することになります。
Beyond memory, Samsung introduced Hybrid Copper Bonding, an innovative packaging technique that enhances thermal resistance by 20%, allowing for the stacking of 16 or more layers.
メモリ以外にも、サムスンは熱抵抗を20%改善し、16層以上の積層を可能にする革新的なパッケージング技術「ハイブリッド・カッパー・ボンディング」を導入しました。
Jensen Huang, NVIDIA’s CEO, emphasized the strength of this partnership by autographing a Samsung HBM4 wafer.
NVIDIAのCEOであるジェンスン・ファン氏は、サムスンのHBM4ウェハーにサインをすることで、このパートナーシップの強固さを示しました。
Furthermore, Samsung is actively manufacturing the Groq 3 Language Processing Unit (LPU) as a key foundry partner.
さらに、サムスンは主要なファウンドリパートナーとして、Groq 3言語処理ユニット(LPU)の製造を積極的に行っています。
Looking ahead, the company is already developing HBM5 and HBM5E to address critical AI data center bottlenecks like heat management and transmission speed.
将来的には、熱管理や転送速度といったAIデータセンターの重要なボトルネックを解決するため、すでにHBM5およびHBM5Eの開発にも取り組んでいます。
By integrating memory, logic, foundry services, and advanced packaging, Samsung is positioning itself as a cornerstone of the next generation of artificial intelligence hardware.
メモリ、ロジック、ファウンドリサービス、そして高度なパッケージングを統合することで、サムスンは次世代の人工知能ハードウェアの基盤としての地位を確立しようとしています。
