NVIDIA H100 Tensor コア GPU

次世代のAIインフラストラクチャプラットフォーム

NVIDIA HGX H100

次世代AIコンピューティングの革新

最先端のGPUアーキテクチャ

NVIDIA H100は、第4世代Tensor CoreとTransformer Engineを搭載したHopperアーキテクチャを採用。AIワークロードに最適化された革新的な処理性能を提供します。

高速メモリ技術

最大94GB HBM3eメモリと4.8 TB/秒の超高速メモリ帯域幅により、大規模なAIモデルの処理を実現。生成AIやLLMの処理を加速します。

AI処理性能の飛躍的向上

FP8精度で4,000 TFLOPS、FP16/BF16で2,000 TFLOPSの演算性能を実現。AIトレーニングと推論処理において卓越したパフォーマンスを発揮します。

HGX H100

性能比較

仕様 H100 80GB H100 94GB
GPUメモリ 80GB HBM3 94GB HBM3e
メモリ帯域幅 3.35 TB/s 4.8 TB/s
FP8 Tensor演算性能 4,000 TFLOPS 4,000 TFLOPS
FP16/BF16 Tensor演算性能 2,000 TFLOPS 2,000 TFLOPS
TF32 Tensor演算性能 1,000 TFLOPS 1,000 TFLOPS
FP64 Tensor演算性能 60 TFLOPS 60 TFLOPS
NVLink帯域幅 900 GB/s 900 GB/s
TDP(最大消費電力) 700W(設定可能) 700W(設定可能)
メモリインターフェイス 5120-bit HBM3 6144-bit HBM3e
第4世代 Transformer Engine 搭載 搭載

※ 94GB版はHBM3eメモリを採用し、より高いメモリ帯域幅(4.8 TB/s)と大容量メモリを実現。80GB版(3.35 TB/s)と比べて約43%高速なメモリアクセスが可能

※ メモリインターフェイスが6144-bitに拡張され、80GB版の5120-bitと比べてより広帯域な通信が可能

※ 大規模言語モデル(LLM)やディープラーニングモデルのトレーニングにおいて、より大きなバッチサイズでの処理が可能

※ 両モデルともに同等のAI演算性能(FP8: 4,000 TFLOPS)を維持しながら、94GB版は大規模なAIモデルのメモリ使用効率を最適化

※ 次世代のAIワークロード、特に生成AIや大規模言語モデルに最適化された設計を実現

高品質な顧客体験の創出、より良い患者の治療成果の提供、サプライチェーンの効率化など、企業にはAIベースのインサイトを提供できるインフラが必要です

Insight 1

インサイト取得時間の短縮とAIのROI加速

データサイエンティストの生産性を向上させ、付加価値のないROIを削減できます。コンセプトからプロダクションまでの製品開発サイクルを加速し、DGXの専門家と共に課題を解決します。

Insight 2

あらゆるワークロード規模に対応したインフラ展開とAI運用

すべてのAIワークロードのための単一システムで、シンプルなインフラ設計と容量計画を実現します。最高のコンピューティング密度とパフォーマンスを最小限のスペースで達成します。コンテナからチップまで、各層に組み込まれたセキュリティを活用できます。

Insight 3

複雑化・大規模化するデータサイエンスの課題をより迅速に解決

最適化されたAIソフトウェアですぐに実行でき、面倒な設定やテストは不要です。前例のないパフォーマンスでより速い反復が可能となり、より良いモデルをより早く確認できます。また、システム統合とソフトウェアエンジニアリングに費やす時間を削減できます。

NVIDIA H100 Tensor Core コア GPU ドキュメント

NVIDIA H100 Tensor Core GPU

次世代のAIコンピューティングを実現する革新的なGPUアーキテクチャ

AIトレーニング

高速な学習処理

第4世代Tensor Coreと新しいTransformer Engineにより、AIモデルのトレーニング速度を大幅に向上

AI推論処理

効率的な推論実行

FP8精度での演算に対応し、より高速で効率的な推論処理を実現。生成AIやLLMの実行を加速

HBM3メモリ

大容量高速メモリ

80GB HBM3メモリを搭載し、3.35 TB/秒の超高速メモリ帯域幅により、大規模モデルの処理を実現

次世代アーキテクチャ

Hopperアーキテクチャ

NVIDIAの最新GPUアーキテクチャを採用し、AIワークロードに最適化された革新的な処理性能を提供