ブログ

AI ファクトリー向け NVIDIA BlueField DPU のパワーと意義

ハンター・スミットのサムネイル
ハンター・スミット
2024 年 12 月 11 日公開

組織がイノベーションを加速し、自動運転車や大規模言語モデル (LLM) などの AI を活用した生活を一変させる製品を開発する中で、効率的なインフラストラクチャは、運用の拡張と競争力の維持に不可欠です。 歴史的に、データ センターは、汎用コンピューティングには中央処理装置 (CPU) を使用し、AI と機械学習の中心となる集中的な並列処理タスクにはグラフィックス処理装置 (GPU) を使用することに重点を置いてきました。 AI モデルの規模と複雑さが増すにつれ、データ センターが新しいコンピューティング ユニットとなり、従来のクラウド ネットワークの限界を押し広げています。 データセンター規模のコンピューティングへの変革を可能にするために、データ処理ユニット (DPU) がコンピューティングの第 3 の柱として登場しました。

AI 工場の台頭

以前の AI ファクトリー シリーズで、 F5 は AI ファクトリーを、大容量で高性能なトレーニングと推論の要件を満たす大規模なストレージ、ネットワーク、コンピューティングへの投資と定義しました。 従来の製造工場と同様に、AI 工場は事前トレーニング済みの AI モデルを活用してロー データをインテリジェンスに変換します。

データ処理ユニット (DPU) とは何ですか?

DPU は、ネットワークのライン レートでハードウェア アクセラレーションを介して膨大なデータの移動と処理を処理するように設計されたプログラム可能なプロセッサです。 2024 年後半に、NVIDIA BlueField-3 DPU 上に展開された BIG-IP Next for Kubernetesを発表しましたNVIDIA BlueField は、 NVIDIA AI ファクトリーを強化するために特別に構築された、データ センター インフラストラクチャ向けの高速コンピューティング プラットフォームです。 CPU は計算applicationsの汎用コンピューティングを担当し、GPU は AI 関連の大規模なベクトルおよび行列計算やグラフィックス レンダリングなどの高速コンピューティング タスクに優れていますが、NVIDIA BlueField DPU は、AI クラスターのホストまたはシャーシのネットワーク接続を担当する PCIe (Peripheral Component Interconnect Express) ネットワーク インターフェイス カード (NIC) に組み込まれることがよくあります。 言い換えれば、NIC は本質的に、サーバーに出入りするデータの処理に最適化された強力なプロセッサになりました。 BlueField DPU は、複数のホストまたはシャーシが単一の AI クラスター内にある場合、クラスター間ネットワーク デバイスとしても機能します。

パワーが解放されました

BlueField DPU は、ソフトウェア定義のネットワーク、ストレージ管理、セキュリティ サービスを処理することで、CPU の計算負荷を軽減し、CPU が得意とするタスクに集中できるようにします。 このオフロード機能は、複雑な AI モデルとリアルタイム推論タスクの要求を満たすために膨大な量のデータを迅速に処理して転送する必要がある AI ファクトリーにとって非常に重要です。

BlueField DPU は、AI ファクトリー内のエネルギー効率とスケーラビリティに大きく貢献します。 AI ファクトリーでは膨大な計算リソースが必要となるため、電力と冷却の効率的な管理が最も重要になります。 DPU は、特殊なアクセラレーション エンジンと高性能ネットワーク インターフェイスを備えており、最小限の遅延と電力消費でデータの処理と転送を実現します。 この効率性により、運用コストが削減されるだけでなく、AI ファクトリーを効果的に拡張することも可能になります。 BlueField DPU を使用すると、AI ファクトリーと大規模インフラストラクチャは、AI テクノロジーの継続的な革新と展開をサポートする、バランスのとれた高性能で高効率なインフラストラクチャを実現できます。

BlueField DPU は AI 工場のどこに導入されていますか?

F5 の AI リファレンス アーキテクチャを見ると、DPU は一般的に、RAG コーパス管理、微調整、トレーニング、推論サービスの機能領域と、これらの機能をサポートするストレージ クラスター内に導入されています。 さらに、DPU は、5G 無線アクセス ネットワーク (RAN) の展開をサポートする DPU などの例を含め、高性能なデータ スループットと電力効率が求められるさまざまなapplicationsで使用されています。

AIリファレンスアーキテクチャ図

DPU が一般的に導入される領域を強調したF5 AI リファレンス アーキテクチャ

application配信とセキュリティをDPUにオフロードして高速化

AI ファクトリーに対する効率的なトラフィック管理と堅牢なセキュリティに対する新たな要件は、セキュリティの脅威を防ぐためのデータ フローと強化されたインフラストラクチャに重点を置く重要な変化を表しています。 NVIDIA BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は、CPU から DPU へのデータ移動をオフロードして高速化することで、低遅延で高スループットの接続を実現します。 さらに、ファイアウォール、DDoS 緩和、WAF、API 保護、侵入防止などの包括的なセキュリティ機能を、プログラム可能な NVIDIA BlueField-3 DPU に直接統合します。 これにより、AI モデルとアプリを脅威から分離し、データの整合性と主権を確保するアーキテクチャを作成できます。

BIG-IP Next for Kubernetes はマルチテナントをサポートしており、単一のインフラストラクチャ上で複数のユーザーと AI ワークロードをホストして、ネットワークを分離することができます。 BIG-IP Next for Kubernetes は、ネットワーク、トラフィック管理、セキュリティ、マルチテナント環境を管理するための中心点を提供するため、大規模な AI インフラストラクチャの管理が簡単になります。 これにより、ネットワークの可視性とパフォーマンスの最適化のための詳細なトラフィック データが提供され、運用が簡素化され、運用コストが削減されます。 BIG-IP Next for Kubernetes と NVIDIA BlueField-3 DPU の統合により、ツールの無秩序な増加と運用の複雑さを軽減しながら、AI ファクトリーが最大限の能力を発揮できるようになります。

F5 搭載

AI に投資する企業にとって、インフラストラクチャが最適化され、安全であることを保証することは必須です。 NVIDIA BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は、高性能、スケーラビリティ、セキュリティを実現し、大規模な AI インフラストラクチャの収益を最大化するための戦略的な投資です。 AI ファクトリーへの投資をサポートするために GPU と DPU を導入している組織の場合は、 F5 に問い合わせて、 BIG-IP Next for Kubernetes が AI ワークロードをどのように強化できるかを確認してください。

F5 の AI への注力はこれで終わりではありません。F5が AI アプリをあらゆる場所で保護し、配信する方法をご覧ください。