過去数十年にわたり、ビジネス界はテクノロジーの革命によって多くの変曲点に直面してきましたが、F5はこのような重要な局面でお客様を支援してきました。
組織がデジタル変革に着手し始めたとき、アプリケーションはビジネスの中核となり、F5はそれらを大規模に提供し、保護できるようにしました。さらに最近では、5Gがかつてないスピード、サービス、信頼性でビジネスの世界に革命をもたらすと期待されたとき、F5はモバイル企業がクラウドネイティブな5Gコアを大規模に展開できるよう支援しました。
組織がAIの力を取り入れる方法を模索している今、私たちは再び、おそらく私たちの業界が直面した最大の変曲点にいます。F5は、お客様がこの革新的なテクノロジーを導入する際に、大規模なAI導入の可能性を最大限に引き出すお手伝いをしています。
AIクラスタの採用が進むにつれ、コンピューティングの高速化への変革が進んでいます。汎用コンピューティング、ネットワーキング、セキュリティ、モニタリングにおいて確立された手法を使おうとすると、非効率、遅延、コスト上昇を招くことが多いです。
AIの膨大なデータ処理要件は、従来のネットワークインフラに大きな負担をかけ、最適なパフォーマンスを維持することを困難にしています。NVIDIA BlueFieldデータ処理ユニット(DPU)は、重要なソリューションとして登場しました。BlueField-3 DPUは、パケット処理、暗号化、圧縮などの高帯域幅のネットワークおよびセキュリティタスクをオフロードして高速化することで、最適なクラウドネットワーク接続を実現します。この最適化により、全体的なパフォーマンスが向上し、データへのグラフィック・プロセッシング・ユニット(GPU)のアクセスが高速化されます。
サービスプロバイダや大企業は、大規模なAIインフラストラクチャやAIファクトリを構築しており、NVIDIAのフルスタック・アクセラレーテッド・コンピューティング・プラットフォームを使用して、生成AIモデルのトレーニングと推論を大規模に実行しています。企業はAIファクトリーへの投資を最大限に活用する必要があります。しかし、適切な基盤がなければ、AIインフラは十分に活用されません。
NVIDIA BlueField-3 DPU上に展開されたF5 BIG-IP Next for Kubernetesは、これらの問題に対処するために設計されています。このソリューションは、NVIDIAのBlueField-3 DPU上でのF5 BIG-IP Next Service Proxy for Kubernetes(SPK)のオフロードと高速化に重点を置いています。このソリューションは、重要な市場の転換期における重要なアプリケーションデリバリおよびセキュリティの課題への対応におけるF5のリーダーシップを基盤としており、同時にNVIDIAのアクセラレーテッド・コンピューティングおよびハイパフォーマンス・ネットワーキングにおけるイノベーションを活用しています。
F5 BIG-IP Next SPKは、サービスプロバイダーが5Gに移行する際にKubernetesで直面した問題を解決するために開発されました。5Gインフラは、Kubernetesを使用してコンテナワークロードを管理する、クラウドネイティブなコンテナ型アーキテクチャで構築されています。しかし、Kubernetesはもともと、5G環境で求められる複雑なユースケースを想定したものではありませんでした。BIG-IP Next SPKは、通信事業者がKubernetesネットワーキングを5Gインフラ向けにカスタマイズし、5Gネットワークを動的に拡張するために必要な可視性、制御、セキュリティを実現するのを支援しました。過去数年にわたり、サービスプロバイダはBIG-IPを使用して、5Gテクノロジーを何百万もの加入者に提供してきました。
BIG-IP Next SPKは、前回の市場の変遷において5G Coreの実現に極めて重要な役割を果たしたように、AI市場の変遷とAIワークロード配信の課題に対応するために進化しています。この新たな市場の変遷の需要に対応するため、F5はNVIDIA BlueField-3 DPU上に展開されたBIG-IP Next for Kubernetesをリリースし、AIサーバーに向けられる膨大なトラフィックを効果的に管理します。
このソリューションは、生成AIの需要に対応するために、最新のアプリケーションデリバリを変革します。これは、ネットワーキング、セキュリティ、ロードバランシングワークロードを処理するF5のBIG-IPプラットフォームのKubernetesネイティブ実装であり、AIクラスタとデータセンターの他の部分との間の境界点に位置します。BIG-IP Next for Kubernetesは、AIクラスタの名前空間をデータセンターのネットワークテナンシーにマッピングし、適切なセキュリティと管理の簡素化を実現します。BlueField-3 DPUのハードウェアアクセラレータを活用することで、BIG-IP Next for Kubernetesはさまざまなネットワーキングとデータサービスを高速化し、CPUコンピューティングリソースをオフロードすることでエネルギー効率を最適化します。
例えば、今年初めに開催された「Networking @Scale 2024」において、メタ社はオープンソースの学習言語モデル(LLM)であるLlama 3のトレーニングがネットワークのレイテンシーによって妨げられていたことに言及しました。このアプローチにより、全体的なパフォーマンスが10%向上しました。10%というのは小さな利益に見えるかもしれませんが、トレーニングに数ヶ月かかるモデルにとって、この改善は数週間の時間節約につながります。
BlueField-3 DPUに導入されたF5 BIG-IP Next for Kubernetesは、大規模なAIインフラの構築を検討しているサービスプロバイダや大企業に複数のメリットを提供します。以下のようなメリットがあります:
課題と利用可能なソリューションを慎重に検討することで、企業は既存の運用を中断したりセキュリティを損なったりすることなく、AIに最適化されたデータセンターを提供することができます。BlueField-3 DPUに導入されたF5 BIG-IP Next for Kubernetesは、Llama 3のような大規模なLLMを含むAIワークロードに対して、シームレスな統合、セキュリティの強化、パフォーマンスの向上を実現する、魅力的な選択肢として浮上しています。
詳しくは、プレスリリースとNVIDIAのブログ記事をご覧ください。