大規模な AI インフラストラクチャに高性能なトラフィック管理とセキュリティを提供し、AIapplicationsの効率、制御、パフォーマンスを向上させます。
BIG-IP Next for Kubernetes は、NVIDIA BlueField-3 DPU 上でネイティブに実行されます。 これにより、企業やサービス プロバイダーは単一の制御ポイントを使用して AI クラウド インフラストラクチャの使用率を最大化し、データの取り込み、モデルのトレーニング、推論、RAG、エージェント AI の AI トラフィックを高速化できます。
クラウド規模のAI インフラストラクチャに高性能なトラフィック管理と負荷分散を提供することで、AI インフラストラクチャへの投資を最大化し、TCO を削減します。
AIapplications向けに安全な Kubernetes ベースのマルチテナントとネットワーク分離を有効にし、複数のテナントとワークロードがサーバーレベルに至るまで単一の AI インフラストラクチャを効率的に共有できるようにします。
エッジ ファイアウォール、DDoS 緩和、API 保護、侵入防止、暗号化、証明書管理などの重要なセキュリティ機能とゼロ トラストアーキテクチャを統合し、これらを DPU にオフロード、高速化、分離します。
マルチテナント アーキテクチャにより、AI ワークロード向けの AI ファクトリーとクラウド データ センターが強化され、組織は共有コンピューティング クラスターでより多くのユーザーをサポートしながら、AI トレーニングと推論のワークロードを拡張できるようになります。 AI ワークロードの自動化と集中ポリシー制御のための高度な Kubernetes 機能を活用することで、さまざまな場所にあるデータ ストレージへの AI モデルの接続を高速化し、アプリのパフォーマンスの可視性を大幅に向上させます。
ネットワーク、トラフィック管理、セキュリティの統合ビューを取得します。このソリューションは、増大する AI ワークロードの需要を満たし、Kubernetes 環境向けに特別に構築されています。 これにより、南北トラフィック フローの効率が向上し、推論やエージェント AI などの AI ユース ケースのネットワーク、トラフィック管理、セキュリティの統合ビューが組織に提供されます。
パフォーマンス、効率、セキュリティは、AI ファクトリーやクラウド データ センターに大規模な GPU クラスターを導入する組織にとって成功の鍵となります。 BIG-IP Next for Kubernetes は、NVIDIA BlueField-3 DPU プラットフォームを活用し、収益を生み出すapplicationsに貴重な CPU サイクルを解放します。 NVIDIA BlueField-3 DPU (B3220 および B3240 バージョン) に導入された BIG-IP Next for Kubernetes は、データの移動を最適化し、GPU の使用率を向上させるとともに、エネルギー消費を最適化します。
BIG-IP Next for Kubernetes は、AI ファクトリー向けに高性能ネットワーク、高度なセキュリティ、簡素化された運用を提供し、シームレスなスケーリング、Kubernetes 統合、リアルタイムのトラフィック可視性を実現して AI ワークロードを最適化します。
AI ワークロードのデータ スループットと GPU 使用率を向上させます。
複数のテナントに対して安全で分離された環境を実現します。
高度なセキュリティ機能で AI ワークロードを保護します。
単一の制御ポイントで操作を簡素化します。
要求の厳しい AI タスクに超高速接続を提供します。
AI ワークロードの増加に合わせてインフラストラクチャを簡単に拡張できます。
Kubernetes ネイティブのワークフローとシームレスに統合します。
ネットワーク トラフィックとパフォーマンスに関するリアルタイムの分析情報を取得します。
効果的なネットワーク セグメンテーションにより、AI ファクトリー内での安全で効率的、かつスケーラブルな運用が保証されます。
クラウドネイティブ アプリを大規模に展開しますか? F5 と NVIDIA が AI やその他の最新アプリの効率、パフォーマンス、セキュリティをどのように向上させるかをご覧ください。
提出後、F5 のビジネス開発担当者がスケジュール調整のためにご連絡いたします。