世界最高峰のAIシステム

NVIDIA DGX Systems

NVIDIA Partner Network(NPN)に認定されました

アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。

当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。

■NVIDIA H100 Tensor Core GPU 搭載

New!

■NVIDIA DGX™ H100

GPU:NVIDIA H100 Tensor Core GPU × 8​ 基搭載
GPUメモリ:640GB
CPU:Dual x 86

DGX H100 製品ページ

■NVIDIA A100 Tensor Core GPU 搭載

NVIDIA DGX™ A100

GPU:NVIDIA A100 Tensor Core GPU × 8​ 基搭載

GPUメモリ:320GB or 640GB

CPU:Dual 128コア AMD Rome CPU

DGX A100 製品ページ


NVIDIA DGX H100 受注開始!2023年1月出荷開始

Hopperアーキテクチャのデータセンター向けGPU「NVIDIA H100」を8基搭載。

32petaFLOPSのFP8パフォーマンスを誇るAIプラットフォーム

NVIDIA DGX H100は、DGXシステムの第 4 世代となり、新しい NVIDIA AI ソフトウェア ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムが利用可能で、NVIDIA プロフェッショナル サービスによりエキスパートからのアドバイスを受けることができます。

NVIDIA Partner Network(NPN)に認定されました

アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。

当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。


NVIDIA DGX H100

・VIDIA H100 GPU x8、合計 GPU メモリ 640GB

GPU あたり 18 NVIDIA® NVLinks®、GPU 間の双方向帯域幅 900GB/秒


・NVIDIA NVSWITCHES™ x4

7.2 テラバイト/秒の GPU 間双方向帯域幅 、前世代比 1.5 倍以上


・NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2

ピーク時の双方向ネットワーク帯域幅 1TB/秒


・デュアル x86 CPU と 2TB システム メモリ

AI への依存が非常に高い仕事を可能にするパワフルな CPU


・30TB NVMe SSD

最高のパフォーマンスを実現するための高速ストレージ


製品特徴

AI センター オブ エクセレンスの第一歩

DGX H100 は、世界初の専用 AI インフラストラクチャの第 4 世代であり、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。新しい NVIDIA AI ソフトウェア ソリューションに対応し、多様なサードパーティのサポートを受けられるエコシステムを利用でき、NVIDIA プロフェッショナル サービスによりエキスパートからのアドバイスを受けることができます。

AI の障壁を大胆に打ち破る

NVIDIA DGX H100 は 6 倍高速なパフォーマンス、2 倍高速なネットワーキング、およびハイスピードなスケーラビリティを NVIDIA DGX SuperPOD に対して発揮します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーション モデルといった大規模なワークロードに対応できるように強化されています。

思いのままに使える、リーダーシップクラスのインフラストラクチャ

DGX H100 は、オンプレミスにインストールして直接管理したり、NVIDIA DGX 対応のデータ センターでの設置、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを通じてアクセスすることもできます。また、 DGX 対応のライフサイクル管理により、組織は予測性の高い財務モデルを入手して、最先端のデプロイメントを維持できます。


NVIDIA DGX H100 スペック


NVIDIA DGX A100 で構築された世界初の AI システム

NVIDIA DGX™ A100 は、あらゆる AI ワークフローに対応するユニバーサル システムで、前例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5 ペタフロップス AI システムです。DGX A100 は NVIDIA A100 Tensor コア GPU を備えており、企業はトレーニング、推論、分析を、展開を簡単にでき、NVIDIA AI エキスパートへの直接アクセスが含まれる AI インフラストラクチャに統合できます。

NVIDIA Partner Network(NPN)に認定されました

アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。

当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。


DGX A100 ラインナップ

・320GBモデル(NVIDIA A100 Tensor Core  GPU 40GB × 8 基搭載)
​・640GBモデル(NVIDIA A100 Tensor Core  GPU 80GB × 8 基搭載)

NVIDIA DGX A100 ​特徴

1

NVIDIA A100 Tensor Core GPU × 8基

合計320 GBのGPUメモリ、12 NVLinks / GPU、600 GB / s GPU-to-GPU双方向帯域幅

2

6 基の NVIDIA NVSWITCH

双方向の帯域幅: 4.8 TB/秒前世代と比較して 2 倍

3

10 Mellanox ConnectX-6

200/Gb ネットワーク インターフェイス

ピーク時の双方向の帯域幅: 500 GB/秒

4

デュアル AMD Rome CPU

2 基の 64 コア AMD CPU と 2 TB システム メモリ

3.2 倍のコアで負荷の高い AI ジョブに対応

5

30TB GEN4 NVME SSD

50GB/秒のピーク帯域幅、2 倍速 Gen3

NVME SSD


NVIDIA A100 Tensor コア GPU

NVIDIA A100 Tensor コア GPU による前例のない高速化をもって、世界で最も困難な計算に AI、データ分析、HPC (ハイ パフォーマンス コンピューティング) で挑むことができます。第 3 世代の NVIDIA Tensor コアにより性能を大幅に向上できるようになり、A100 GPU を効率的に数千までスケール アップできます。また、マルチインスタンス GPU を使用すれば、あらゆるサイズのワークフローを加速するために 7 つの小さな専用インスタンスとして割り当てることができます。


MIG を利用することで、DGX A100 の 8 つの A100 Gpu を最大 56 個の GPU インスタンスとして構成し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。これにより管理者は、複数のワークフローに対してサービス品質 (QoS) が保証された GPU のサイズを適切に設定することができます。


マルチインスタンス GPU (MIG)


次世代 NVLink と NVSwitch



DGX A100 の第 3 世代の NVIDIA® NVLink™ は、GPU から GPU への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。これは PCIe Gen4 のほぼ 10 倍に相当します。DGX A100 には、前世代と比較して 2 倍の速度を可能にする次世代の NVIDIA NVSwitch™ も搭載されています。


NVIDIA ConnectX-7 毎秒 200Gb InfiniBand/Ethernet


DGX A100 は NVIDIA ConnectX-7 InfiniBand と VPI (Infiniband または Ethernet) アダプターを備え、それぞれが毎秒 200 ギガビット (Gb/s) で実行され、大規模 AI ワークロードのために高速ファブリックを構築します。



最適化されたソフトウェア スタック




DGX A100 には、AI チューニングされた基本オペレーティング システム、必要となるすべてのシステム ソフトウェア、GPU 対応アプリケーション、トレーニング済みモデル、NGC™ の各種機能など、テスト済みで最適化された DGX ソフトウェア スタックが統合されています。


組み込まれたセキュリティ




DGX A100 は、あらゆる主要なハードウェアとソフトウェア コンポーネントを保護するための自動暗号化ドライブ、署名付きソフトウェア コンテナー、安全な管理と監視といったマルチレイヤー アプローチを採用することで、AI 導入において最も信頼性の高いセキュリティ体制を実現します。



AI データ センターに欠かせないビルディング ブロック

すべてのAIワークロードに対応するユニバーサルシステム

NVIDIA DGX A100は、分析からトレーニング、推論まで、すべてのAIインフラストラクチャのユニバーサルシステムです。コンピューティング密度の新たな基準を設定し、5ペタフロップスのAIパフォーマンスを6Uフォームファクターにパッキングし、従来のインフラストラクチャサイロをすべてのAIワークロード用の1つのプラットフォームに置き換えます。

DGXperts: AI の専門知識への統合的アクセス

NVIDIA DGXperts は、お客様による DGX 投資への価値を最大化できるよう過去 10 年間にわたり豊富な経験を積んできた、20,000 人を超える AI に精通した専門家から成る世界的なチームです。

最速での解決

NVIDIA DGX A100 は、NVIDIA A100 Tensor コア GPU をベースに開発された世界初の AI システムです。320GB と 640GB の GPU メモリ オプションを持つ 8 基の A100 GPU を統合したこのシステムは、かつてないほどの高速化を実現し、NVIDIA CUDA-X™ ソフトウェアとエンドツーエンドの NVIDIA データ センター ソリューション スタック用に完全に最適化されています。

比類ないデータ センターの拡張性

NVIDIA DGX A100 は、ピーク時の双方向帯域幅が 500 ギガバイト/秒 (GB/s) の Mellanox ネットワーキングを内蔵しています。これは、スケーラブル AI インフラストラクチャのリファレンス アーキテクチャとなるNVIDIA DGX SuperPOD™ などの大規模 AI クラスターの基本構成要素に DGX A100 を据えるための数ある機能の中の 1 つです。


NVIDIA DGX A100 スペック


プライバシーポリシー

お問い合わせ

会社概要

APPLIED

NVIDIA Partner Network(NPN)に認定されました

アプライド株式会社は、NVIDIA社のパートナープログラムであるNVIDIAパートナーネットワークにソリューションプロバイダーとして参画したことを発表します。

当社はソリューションプロバイダーとして、テクノロジーの専門知識とサービスを組み合わせて付加価値を高め、お客様の求めるビジネスおよび技術の要件を満たす NVIDIA GPU コンピューティングソリューションを設計、再販、導入までのご提供を開始いたします。