世界最高峰のAIシステム
NVIDIA DGX Systems
NVIDIA Partner Network(NPN)に認定されました
アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。
当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。
NVIDIA DGX H100 受注開始!2023年1月出荷開始
Hopperアーキテクチャのデータセンター向けGPU「NVIDIA H100」を8基搭載。
32petaFLOPSのFP8パフォーマンスを誇るAIプラットフォーム
NVIDIA DGX H100は、DGXシステムの第 4 世代となり、新しい NVIDIA AI ソフトウェア ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムが利用可能で、NVIDIA プロフェッショナル サービスによりエキスパートからのアドバイスを受けることができます。
NVIDIA Partner Network(NPN)に認定されました
アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。
当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。
NVIDIA DGX H100
・VIDIA H100 GPU x8、合計 GPU メモリ 640GB
GPU あたり 18 NVIDIA® NVLinks®、GPU 間の双方向帯域幅 900GB/秒
・NVIDIA NVSWITCHES™ x4
7.2 テラバイト/秒の GPU 間双方向帯域幅 、前世代比 1.5 倍以上
・NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2
ピーク時の双方向ネットワーク帯域幅 1TB/秒
・デュアル x86 CPU と 2TB システム メモリ
AI への依存が非常に高い仕事を可能にするパワフルな CPU
・30TB NVMe SSD
最高のパフォーマンスを実現するための高速ストレージ
製品特徴
AI センター オブ エクセレンスの第一歩
DGX H100 は、世界初の専用 AI インフラストラクチャの第 4 世代であり、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。新しい NVIDIA AI ソフトウェア ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムを利用でき、NVIDIA プロフェッショナル サービスによりエキスパートからのアドバイスを受けることができます。
AI の障壁を大胆に打ち破る
NVIDIA DGX H100 は 6 倍高速なパフォーマンス、2 倍高速なネットワーキング、およびハイスピードなスケーラビリティを NVIDIA DGX SuperPOD に対して発揮します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーション モデルといった大規模なワークロードに対応できるように強化されています。
思いのままに使える、リーダーシップクラスのインフラストラクチャ
DGX H100 は、オンプレミスにインストールして直接管理したり、NVIDIA DGX 対応のデータ センターでの設置、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを通じてアクセスすることもできます。また、 DGX 対応のライフサイクル管理により、組織は予測性の高い財務モデルを入手して、最先端のデプロイメントを維持できます。
NVIDIA DGX H100 スペック
NVIDIA DGX A100 で構築された世界初の AI システム
NVIDIA DGX™ A100 は、あらゆる AI ワークフローに対応するユニバーサル システムで、前例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5 ペタフロップス AI システムです。DGX A100 は NVIDIA A100 Tensor コア GPU を備えており、企業はトレーニング、推論、分析を、展開を簡単にでき、NVIDIA AI エキスパートへの直接アクセスが含まれる AI インフラストラクチャに統合できます。
NVIDIA Partner Network(NPN)に認定されました
アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。
当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。
DGX A100 ラインナップ
・320GBモデル(NVIDIA A100 Tensor Core GPU 40GB × 8 基搭載)
・640GBモデル(NVIDIA A100 Tensor Core GPU 80GB × 8 基搭載)
NVIDIA DGX A100 特徴
1
NVIDIA A100 Tensor Core GPU × 8基
合計320 GBのGPUメモリ、12 NVLinks / GPU、600 GB / s GPU-to-GPU双方向帯域幅
2
6 基の NVIDIA NVSWITCH
双方向の帯域幅: 4.8 TB/秒前世代と比較して 2 倍
3
10 Mellanox ConnectX-6
200/Gb ネットワーク インターフェイス
ピーク時の双方向の帯域幅: 500 GB/秒
4
デュアル AMD Rome CPU
2 基の 64 コア AMD CPU と 2 TB システム メモリ
3.2 倍のコアで負荷の高い AI ジョブに対応
5
30TB GEN4 NVME SSD
50GB/秒のピーク帯域幅、2 倍速 Gen3
NVME SSD
NVIDIA A100 Tensor コア GPU
NVIDIA A100 Tensor コア GPU による前例のない高速化をもって、世界で最も困難な計算に AI、データ分析、HPC (ハイ パフォーマンス コンピューティング) で挑むことができます。第 3 世代の NVIDIA Tensor コアにより性能を大幅に向上できるようになり、A100 GPU を効率的に数千までスケール アップできます。また、マルチインスタンス GPU を使用すれば、あらゆるサイズのワークフローを加速するために 7 つの小さな専用インスタンスとして割り当てることができます。
MIG を利用することで、DGX A100 の 8 つの A100 Gpu を最大 56 個の GPU インスタンスとして構成し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。これにより管理者は、複数のワークフローに対してサービス品質 (QoS) が保証された GPU のサイズを適切に設定することができます。
マルチインスタンス GPU (MIG)
次世代 NVLink と NVSwitch
DGX A100 の第 3 世代の NVIDIA® NVLink™ は、GPU から GPU への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。これは PCIe Gen4 のほぼ 10 倍に相当します。DGX A100 には、前世代と比較して 2 倍の速度を可能にする次世代の NVIDIA NVSwitch™ も搭載されています。
NVIDIA ConnectX-7 毎秒 200Gb InfiniBand/Ethernet
DGX A100 は NVIDIA ConnectX-7 InfiniBand と VPI (Infiniband または Ethernet) アダプターを備え、それぞれが毎秒 200 ギガビット (Gb/s) で実行され、大規模 AI ワークロードのために高速ファブリックを構築します。
最適化されたソフトウェア スタック
DGX A100 には、AI チューニングされた基本オペレーティング システム、必要となるすべてのシステム ソフトウェア、GPU 対応アプリケーション、トレーニング済みモデル、NGC™ の各種機能など、テスト済みで最適化された DGX ソフトウェア スタックが統合されています。
組み込まれたセキュリティ
DGX A100 は、あらゆる主要なハードウェアとソフトウェア コンポーネントを保護するための自動暗号化ドライブ、署名付きソフトウェア コンテナー、安全な管理と監視といったマルチレイヤー アプローチを採用することで、AI 導入において最も信頼性の高いセキュリティ体制を実現します。
AI データ センターに欠かせないビルディング ブロック
すべてのAIワークロードに対応するユニバーサルシステム
NVIDIA DGX A100は、分析からトレーニング、推論まで、すべてのAIインフラストラクチャのユニバーサルシステムです。コンピューティング密度の新たな基準を設定し、5ペタフロップスのAIパフォーマンスを6Uフォームファクターにパッキングし、従来のインフラストラクチャサイロをすべてのAIワークロード用の1つのプラットフォームに置き換えます。
DGXperts: AI の専門知識への統合的アクセス
NVIDIA DGXperts は、お客様による DGX 投資への価値を最大化できるよう過去 10 年間にわたり豊富な経験を積んできた、20,000 人を超える AI に精通した専門家から成る世界的なチームです。
最速での解決
NVIDIA DGX A100 は、NVIDIA A100 Tensor コア GPU をベースに開発された世界初の AI システムです。320GB と 640GB の GPU メモリ オプションを持つ 8 基の A100 GPU を統合したこのシステムは、かつてないほどの高速化を実現し、NVIDIA CUDA-X™ ソフトウェアとエンドツーエンドの NVIDIA データ センター ソリューション スタック用に完全に最適化されています。
比類ないデータ センターの拡張性
NVIDIA DGX A100 は、ピーク時の双方向帯域幅が 500 ギガバイト/秒 (GB/s) の Mellanox ネットワーキングを内蔵しています。これは、スケーラブル AI インフラストラクチャのリファレンス アーキテクチャとなるNVIDIA DGX SuperPOD™ などの大規模 AI クラスターの基本構成要素に DGX A100 を据えるための数ある機能の中の 1 つです。
NVIDIA DGX A100 スペック