NVIDIA HGX H100 8 GPU

エンタープライズAIの新基準

NVIDIA HGX H100

エンタープライズAIの新基準

最先端のAIコンピューティング

NVIDIA HGX H100は、最新のHopperアーキテクチャを採用し、AIワークロードに最適化された高性能GPUプラットフォームです。大規模言語モデル(LLM)や生成AI向けに設計された革新的な性能を提供します。

優れたスケーラビリティ

NVSwitch™とNVLink™テクノロジーにより、複数のGPU間で最大900GB/秒の双方向帯域幅を実現。大規模なAIモデルのトレーニングや推論において、優れたスケーラビリティを発揮します。

柔軟な導入オプション

サーバーメーカーやクラウドプロバイダーを通じて、様々な形態でHGX H100のパワーを活用できます。エンタープライズAIインフラストラクチャの構築に最適なプラットフォームを提供します。

技術仕様

仕様 HGX H100 8-GPU HGX H200 8-GPU
GPUメモリ 640GB HBM3 141GB HBM3e
メモリ帯域幅 3.35 TB/s 4.8 TB/s
FP8 Tensor演算性能 3,200 TFLOPS 4,000 TFLOPS
FP16/BF16 Tensor演算性能 1,600 TFLOPS 2,000 TFLOPS
TF32 Tensor演算性能 800 TFLOPS 1,000 TFLOPS
FP64 Tensor演算性能 48 TFLOPS 60 TFLOPS
メモリインターフェイス 5120-bit HBM3 6144-bit HBM3e
TDP(最大消費電力) 700W(設定可能) 700W(設定可能)

AI開発、運用向け GPUサーバーの選定の3つのポイント

AIの開発、運用に欠かせないGPUサーバー。選定にあたり様々なポイントがありますが、その中でも特に重要な3つのポイントをお伝えいたします。

01

AIの用途と環境に最適なGPU選び

AI GPU選択

GPUの主な用途には、生成AI、ブロックチェーン、映像処理などがあり、活用の用途に応じてユーザーはGPUモデルを検討します。間違えやすいポイントとしてはGPUが全てを握る鍵なのではなく、実はお客様のアプリケーション環境や使用するソフトウェアにパフォーマンスが大きく依存する点です。トゥモロー・ネットでは、数多くのGPUサーバーを構築した知見を活かし、お客様の環境を細かくヒアリングし、その上でお客様の環境に最適な製品の提案を行っています。

02

GPUのパフォーマンスを最大限に生かす接続方式

GPU接続方式

NVIDIA製GPUには、PCIeとSXMという2種類の主要なインターコネクトテクノロジーが存在します。PCIeはコストを抑え、基本的な機能を備えた汎用性の高いテクノロジー。AIに特化せず様々な用途に利用可能な一方でパフォーマンスは環境に依存します。SXMはAIアプリケーションなどの高パフォーマンスを求める場合に多く利用されるテクノロジー。トゥモロー・ネットではSXMタイプのGPUをSupermicroサーバーと一体化し提供することで、お客様により高いパフォーマンスと保守を兼ね備えたインフラを提供します。

03

GPU以外のサーバーのマシンスペック

サーバースペック

GPU Direct RDMAは、高性能なNIC(ネットワークインターフェースカード)を使用して、RDMA(Remote Direct Memory Access)を実現します。このシステムでは、通常のネットワーク通信に比べて遅延が少なく、高速なデータ転送が可能です。NVIDIA BlueField-3 DPUは、データセンター、クラウド、エッジからコアまでのインフラストラクチャを高速化、分離、保護する、次世代のオンチップ型データセンターインフラストラクチャプラットフォームです。AI用のインフラを構築する場合はGPUだけではなくサーバー全体のスペックを考慮することが非常に重要です。

製品名:H100 GPUサーバー 型番・機種名:HGX H100 8-GPU

(1台当たり標準仕様明細)

GPU GPU
GPU_Nvidia_HGX-H100-8GPU_640G
筐体 筐体
AS-8125GS-TNHR
プロセッサー プロセッサー
CPU_Intel_8480+_Xeon_2.0GHz_56C_105M_350W
メモリー メモリー
Mem_64G_DDR5-4800MHz_ECC-RDIMM
ストレージ ストレージ
SSD_960G_U.2_16GTps_2.5in_R-Standard
ネットワーク ネットワーク
NIC_100Gbps_2Port_LC_Mellanox_CX6DX_PCIe_MM_GEN4
HCA HCA
HCA_1Port_NDR_MCX75310AAS_NV_400G-GEN5
ライザー ライザー
Riser_X16_LEFT
電源 電源
PowerSupply_3200W_Titanium_220VACor240VDC
電源 電源
PowerSupply_2700W_Titanium_220VACor240VDC
電源ケーブル 電源ケーブル
PowerCord_1.5m_C20_C19_JP
セキュリティ セキュリティ
TPM_2.0
レール レール
Rail_L-Type_630mm_4U_CIS

AIおよび高性能コンピューティング向けの専用設計

高性能AI基盤

AI、複雑なシミュレーション、大規模なデータセットには、複数のGPUを超高速接続で結び、完全に加速されたソフトウェアスタックが必要です。NVIDIA HGX AIスーパーコンピューティングプラットフォームは、NVIDIA GPU、NVIDIA NVLink、NVIDIAネットワーキングと完全に最適化されたAIおよび高性能コンピューティング(HPC)ソフトウェアスタックを組み合わせ、最高のアプリケーションパフォーマンスを提供し、迅速なインサイトの導出を可能にします。

比類なきエンドツーエンドの加速コンピューティングプラットフォーム

NVIDIA HGX H100は、H100 Tensor Core GPUと高速インターコネクトを組み合わせ、世界で最も強力なサーバーを形成します。最大8基のGPUを構成し、最大80ギガバイト(GB)のHBM3メモリ、毎秒3.35テラバイト(TB/s)の総メモリ帯域幅を提供し、前例のない加速性能を実現します。これにより、最大32 PFLOPSという驚異的なパフォーマンスが組み合わさり、AIおよびHPC向けの世界で最も強力な加速スケールアップサーバープラットフォームが生まれます。

高度なネットワーキングとDPU統合

NVIDIA HGX H100には、最大400ギガビット毎秒(Gb/s)の速度を可能にするNVIDIA Quantum-2 InfiniBandおよびSpectrum-X Ethernetを活用した高度なネットワーキングオプションが含まれています。また、クラウドネイティブ、ハイパースケールAIクラウドおよびGPUクラスターの柔軟性を可能にするNVIDIA BlueField-3データ処理ユニット(DPU)も搭載されています。