XA GB721-E2
AI POD
NVIDIA Blackwell GPU搭載のオールインワンAIインフラ
NVIDIA GB300 NVL72
・NVIDIA Blackwell Ultra GPU × 72基
・NVIDIA® Grace™ CPU × 36基
・第5世代 NVIDIA NVLink™テクノロジ
NVIDIA Blackwell Ultra GPU
NVIDIA
Grace CPU
第5世代
NVIDIA NVLink
製品概要
お問い合わせ
製品特徴
ASUS AI PODは、NVIDIAの最新AIプラットフォームを搭載した、エンタープライズ向けのラックスケールAI基盤です。
次世代AIを支える統合基盤
研究から実運用までを加速するオールインワンAI環境
GPU・CPU・メモリ・ネットワークを統合した一体型設計により、複雑な構築作業を不要にし、導入直後から大規模AIワークロードを稼働可能。超大規模言語モデル(LLM)の訓練や推論、生成AI研究、AIファクトリーの基盤など、次世代のAI研究開発とサービス提供を強力に支えます。
NVIDIA GB300 NVL72
Blackwell世代の最高峰
GPU×72基とCPU×36基を統合したAIプラットフォーム
NVIDIA GB300 NVL72は、72基のBlackwell Ultra GPUと36基のGrace CPUを統合したラックスケールAIプラットフォームです。 最大1.1エクサフロップス(FP4)、0.36エクサフロップス(FP8)の計算性能を発揮し、40TBの専用メモリと最大576TB/秒の帯域幅を搭載。新アーキテクチャ「Blackwell Ultra」により、従来世代を大幅に上回るAI推論・学習性能を実現します。さらに、NVIDIA Quantum-X800 InfiniBandやSpectrum-X Ethernetに対応し、大規模AIクラスタに求められる低レイテンシと高スループットを提供。超大規模言語モデル、生成AI、クラウドAIサービスの基盤として広く活用されています。
次世代AIワークロードに最適化された高性能GPU。最大288GBのHBM3eメモリと、FP4演算で最大15ペタフロップスの性能を提供。2ダイ構成のデュアルレチクル設計により、10TB/sのNV-HBIで接続され、前世代比で1.5倍の推論性能向上を実現。
NVIDIA NVLinkは、複数GPU間を高帯域で直接接続する技術です。
これにより、GPU群を単一GPUのように機能させ、従来のPCIeを超える高速データ転送を可能にします。
最新のArm Neoverse V2コアを採用し、1チップあたり最大144コアを搭載。
最大1TB/秒のメモリ帯域幅を実現する設計で、AIやHPC用途に求められる大量データ処理に強い
NVIDIA Grace CPU
NVIDIA Blackwell Ultra GPU
第 5 世代NVIDIA NVLink
大学や研究所における
大規模AIモデル開発に最適
活用シナリオ
研究機関
企業R&D
生成AIや高度解析を加速し
競争優位性を創出
クラウド事業者
AIサービス基盤として
スケール自在に活用可能
XA GB721-E2
Rack Scale Solution with NVIDIA® GB300 NVL72
・36 NVIDIA® Grace™ CPUs 36 NVIDIA® Grace™ CPU
・72 NVIDIA Blackwell Ultra GPUs 72 NVIDIA Blackwell Ultra GPU
・5th Gen NVIDIA NVLink™ technology 第5世代NVIDIA NVLink™ テクノロジ
・NVIDIA Blackwell Ultra GPU SXM7 and SOCAMMNVIDIA Blackwell Ultra GPU SXM7およびSOCAMM
・modules design for serviceability サービス性を考慮したモジュール設計
・Supports AI reasoning and inference AI推論(reasoning および inference )に対応
・Scale-up ecosystem-ready スケールアップエコシステム対応
・ASUS Infrastructure Deployment Center ASUS Infrastructure Deployment Center
お問い合わせ