■製品仕様
■アクセラレーテッド コンピューティングを桁違いに高速化
NVIDIA H100 Tensor コアGPUは、比類のないパフォーマンス、拡張性、セキュリティをあらゆるワークロードに提供します。NVIDIA®NVLink®Switch Systemとの組み合わせで、最大256基のH100 GPUを接続して、エクサスケールのワークロードを高速化します。さらに専用のTransformer Engineで、数兆個のパラメーターを持つ言語モデルにも対応します。H100は、NVIDIA Hopperアーキテクチャが実現する画期的な変革を利用して業界最高水準の対話型AIを提供し、大規模言語モデルの処理を前世代の30倍以上の速さで実行します。
■エンタープライズ AI への対応
NVIDIA H100 Tensor Core GPUには、
NVIDIA AI Enterpriseソフトウェアスイートのエンタープライズサポートを含む5年間のソフトウェアサブスクリプションが付属しており、非常に優れた性能によってAI活用を簡素化します。これにより、企業や組織は、AIチャットボット、レコメンデーションエンジン、ビジョンAIなど、H100で高速化するAIワークフローを構築するために必要なAIフレームワークおよびツールが活用できるようになります。
■エンタープライズからエクサスケールまで、さまざまな規模のワークロードをセキュアに高速化
NVIDIA H100 GPUは、第4世代のTensorコアとFP8精度のTransformer Engineを搭載し、大規模言語モデルを使うトレーニングにおいて前世代比で最大9倍高速化、推論の速度を最大30倍と驚異的に高めることで、AI市場におけるNVIDIA のリーダーシップをさらに確かなものにします。ハイパフォーマンス コンピューティング(HPC)のアプリケーションについても、FP64によるFLOPS(1 秒間に実行できる浮動小数点演算の回数)を3倍に高め、新しいDPX命令は、動的計画法のアルゴリズムを最大7倍まで高速化します。第2世代のマルチインスタンス GPU(MIG)、組み込みのNVIDIAコンフィデンシャルコンピューティング、NVIDIA NVLink Switch System を装備するH100は、エンタープライズからエクサスケールまで、さまざまな規模のデータセンターのあらゆるワークロードを安全に高速化します。
・NVIDIA AI Enterprise詳細はこちら
アーキテクチャ |
Hopper |
GPUメモリー |
94GB |
メモリー帯域 |
3.9TB/s |
エラー修正コード(ECC) |
対応 |
FP64 |
34TFLOPS |
FP64 Tensor Core |
67TFLOPS |
FP32 |
67TFLOPS |
TF32 Tensor Core |
989TFOLPS* |
BFLOAT16 Tensor core |
1979TFLOPS* |
FP16 Tensor Core |
1979TFLOPS* |
FP8 Tensor Core |
3958TFLOPS* |
INT8 Tensor Core |
3958TFLOPS* |
NVIDIA NVLINK |
対応 |
デコーダー |
7xNVDEC
7xJPEG |
インターコネクト |
PCIe5.0:128GB/s
NVLink:600GB/s(NVLINK Bridge 3基使用時) |
消費電力(TDP) |
350-400W |
冷却機構 |
パッシブ |
フォームファクタ |
Dual Slot |
マルチインスタンスGPU(MIG) |
各12GBのMIGが最大7個 |
付属ライセンス |
NVIDIA AI Enterprise 5年Subscriptionライセンスが付属 |
同梱物 |
保証書 (補助電源ケーブルは付属しません) |
保証 |
3年間 |
※仕様などは予告なしに変更されることがあります。
※NVLINK接続する場合はRTX用のNVLINKが3個必要です。
*sparsity有効時
詳細な仕様については
メーカーサイトにてご確認ください。
国内正規代理店:菱洋エレクトロ株式会社取扱い品。
初期不良や故障に関しては国内正規輸入代理店:菱洋エレクトロ株式会社にご連絡下さい。
お問合せページ
https://www.ryoyo.co.jp/contact/form-nvidia-support/