XA GB721-E2

AI POD

NVIDIA Blackwell GPU搭載のオールインワンAIインフラ 

NVIDIA GB300 NVL72

・NVIDIA Blackwell Ultra GPU × 72基

・NVIDIA® Grace™ CPU × 36基

・第5世代 NVIDIA NVLink™テクノロジ

NVIDIA Blackwell Ultra GPU

NVIDIA

Grace CPU

第5世代

NVIDIA NVLink

製品概要

お問い合わせ

製品特徴

ASUS AI PODは、NVIDIAの最新AIプラットフォームを搭載した、エンタープライズ向けのラックスケールAI基盤です。

次世代AIを支える統合基盤

研究から実運用までを加速するオールインワンAI環境

GPU・CPU・メモリ・ネットワークを統合した一体型設計により、複雑な構築作業を不要にし、導入直後から大規模AIワークロードを稼働可能。超大規模言語モデル(LLM)の訓練や推論、生成AI研究、AIファクトリーの基盤など、次世代のAI研究開発とサービス提供を強力に支えます。


NVIDIA GB300 NVL72

Blackwell世代の最高峰

GPU×72基とCPU×36基を統合したAIプラットフォーム

NVIDIA GB300 NVL72は、72基のBlackwell Ultra GPUと36基のGrace CPUを統合したラックスケールAIプラットフォームです。 最大1.1エクサフロップス(FP4)、0.36エクサフロップス(FP8)の計算性能を発揮し、40TBの専用メモリと最大576TB/秒の帯域幅を搭載。新アーキテクチャ「Blackwell Ultra」により、従来世代を大幅に上回るAI推論・学習性能を実現します。さらに、NVIDIA Quantum-X800 InfiniBandやSpectrum-X Ethernetに対応し、大規模AIクラスタに求められる低レイテンシと高スループットを提供。超大規模言語モデル、生成AI、クラウドAIサービスの基盤として広く活用されています。


次世代AIワークロードに最適化された高性能GPU。最大288GBのHBM3eメモリと、FP4演算で最大15ペタフロップスの性能を提供。2ダイ構成のデュアルレチクル設計により、10TB/sのNV-HBIで接続され、前世代比で1.5倍の推論性能向上を実現。

NVIDIA NVLinkは、複数GPU間を高帯域で直接接続する技術です。

これにより、GPU群を単一GPUのように機能させ、従来のPCIeを超える高速データ転送を可能にします。

最新のArm Neoverse V2コアを採用し、1チップあたり最大144コアを搭載。

最大1TB/秒のメモリ帯域幅を実現する設計で、AIやHPC用途に求められる大量データ処理に強い

NVIDIA Grace CPU

NVIDIA Blackwell Ultra GPU

第 5 世代NVIDIA NVLink

大学や研究所における

大規模AIモデル開発に最適

活用シナリオ

研究機関

企業R&D

生成AIや高度解析を加速し

競争優位性を創出

クラウド事業者

AIサービス基盤として

スケール自在に活用可能

XA GB721-E2

Rack Scale Solution with NVIDIA® GB300 NVL72

・36 NVIDIA® Grace™ CPUs 36 NVIDIA® Grace™ CPU

・72 NVIDIA Blackwell Ultra GPUs 72 NVIDIA Blackwell Ultra GPU

・5th Gen NVIDIA NVLink™ technology 第5世代NVIDIA NVLink™ テクノロジ

・NVIDIA Blackwell Ultra GPU SXM7 and SOCAMMNVIDIA Blackwell Ultra GPU SXM7およびSOCAMM

・modules design for serviceability サービス性を考慮したモジュール設計

・Supports AI reasoning and inference AI推論(reasoning および inference )に対応

・Scale-up ecosystem-ready スケールアップエコシステム対応

・ASUS Infrastructure Deployment Center ASUS Infrastructure Deployment Center

お問い合わせ

必須
必須
必須
必須