1 つのプロンプト。 回答に対する 1 つのトークンのセット。 これは AI 推論と呼ばれます。 モデルのサイズと複雑さが増すにつれ、組織には、この AI スケーリング法則の新しい時代を成功させるために、フルスタックのアプローチとエンドツーエンドのツールが必要となります。
推論モデルが指数関数的に多くの AI トークンを生成するにつれ、コンピューティングの需要が急増しています。 これを実現するには、NVIDIA Blackwell を活用して大規模な推論向けに最適化された専用インフラストラクチャである AI ファクトリーが必要です。これは、業界を問わずパフォーマンス、効率、ROI を提供するために設計されています。
フルスタック推論の最適化は、AI ファクトリー規模での AI スケーリングについて賢く判断するための鍵となります。
NVIDIA Blackwell は、最大 15 倍の ROI を含む最高の AI ファクトリー収益を可能にします。 これは、NVIDIA Blackwell、NVLink™、NVLink Switch のスケールアウトを目指した高度な共同設計、NVFP4 による低精度精度の実現、NVIDIA Dynamo と TensorRT™ LLM、およびコミュニティ フレームワークSGLang、vLLMなどによる開発の結果です。
DeepSeek-R1 8K/1K の結果は、NVIDIA Blackwell GB200 NVL72 のパフォーマンス上の利点と収益機会が Hopper H200 と比較して 15 倍であることを示しています。
アプリケーション、AI フレームワーク、さまざまなオープンモデルと独自のモデル アーキテクチャとサイズ、プラットフォームを対象に、AI モデルのデプロイを標準化します。
パブリック クラウド、オンプレミス データ センター、エッジで、ツールやプラットフォームと簡単に統合できます。
NVIDIA AI 推論には、NVIDIA Dynamo Platform、TensorRT™-LLM、NVIDIA NIM™、その他のツールが含まれており、AI アプリケーションの構築、共有、デプロイを簡素化します。NVIDIA の推論プラットフォームは、主要なオープンソース ツールを統合し、パフォーマンスを高速化し、エンタープライズ グレードのインフラストラクチャ、ソフトウェア、エコシステム全体でスケーラブルで信頼できるデプロイを可能にします。
NVIDIA で高速化したインフラストラクチャ向けに最適化された NVIDIA AI 推論ソフトウェアを使用すれば、比類のない AI パフォーマンスが手に入ります。 NVIDIA Blackwell Ultra、H200 GPU、NVIDIA RTX PRO™ 6000 Blackwell Server Edition、NVIDIA RTX™ テクノロジは、データ センター、クラウド、ワークステーション全体の AI 推論ワークロードに優れたスピードと効率を提供します。