過去数十年にわたり、ビジネスの世界はテクノロジーの革命によって多くの転換点に直面してきましたが、F5 はこれらの重要な節目を乗り越えるためにお客様を支援してきました。
組織がデジタル変革に着手し始めると、アプリケーションがビジネスの中心となり、F5 はアプリケーションを大規模に提供し、保護できるようにしました。 最近では、5G が前例のない速度、サービス、信頼性でビジネスの世界に革命を起こすと約束されたとき、F5 はモバイル企業がクラウドネイティブの 5G コアを大規模に導入できるよう支援しました。
今、私たちは再び、おそらく業界が直面した最大の転換点を迎えており、組織は AI の力を活用する方法を模索しています。お客様がこの革新的なテクノロジーを実装するにあたり、F5 は大規模な AI 導入の可能性を最大限に引き出すお手伝いをしています。
AI クラスターの採用の増加により、高速コンピューティングへの変革が推進されています。 汎用コンピューティング、ネットワーキング、セキュリティ、監視において確立された手法を使用しようとすると、非効率性、遅延、コストの上昇につながることがよくあります。
AI の膨大なデータ処理要件により、従来のネットワーク インフラストラクチャに大きな負担がかかり、最適なパフォーマンスを維持することが困難になっています。 NVIDIA BlueField データ処理ユニット (DPU) が重要なソリューションとして登場しました。 BlueField-3 DPU は、パケット処理、暗号化、圧縮などの高帯域幅ネットワークおよびセキュリティ タスクをオフロードして高速化することで、最適なクラウド ネットワーク接続を実現します。 この最適化により、全体的なパフォーマンスが向上し、グラフィック プロセッシング ユニット (GPU) のデータへのアクセスが高速化されます。
サービス プロバイダーや大企業は、NVIDIA のフルスタック アクセラレーテッド コンピューティング プラットフォームを使用して大規模な AI インフラストラクチャまたはAI ファクトリーを構築し、生成 AI モデルのトレーニングと推論を大規模に実行しています。 企業は AI 工場への投資を最大限に活用する必要があり、その投資は莫大なものになる可能性があります。 しかし、適切な基盤がなければ、AI インフラストラクチャは十分に活用されない可能性があります。
NVIDIA BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は、これらの問題に対処するように設計されています。 このソリューションは、 NVIDIA の BlueField-3 DPU上でF5 BIG-IP Next Service Proxy for Kubernetes (SPK) をオフロードおよび高速化することに重点を置いています。 これは、主要な市場の変曲点における重要なアプリケーション配信とセキュリティの課題に対処する F5 のリーダーシップを基盤とし、同時に、高速コンピューティングと高性能ネットワーキングにおける NVIDIA のイノベーションを活用します。
F5 BIG-IP Next SPK は、サービス プロバイダーが 5G に移行する際に Kubernetes で直面した問題を解決するために開発されました。 5G インフラストラクチャは、クラウドネイティブのコンテナ化アーキテクチャ上に構築され、コンテナ ワークロードは Kubernetes を使用して管理されます。 しかし、Kubernetes はもともと、5G 環境に求められる複雑なユースケースを想定して作られたものではありません。 BIG-IP Next SPK は、通信事業者が 5G インフラストラクチャ向けに Kubernetes ネットワークをカスタマイズするのに役立ち、5G ネットワークを動的に拡張するために必要な可視性、制御、セキュリティを提供します。 過去数年間にわたり、サービスプロバイダーは BIG-IP を使用して、数百万の加入者に 5G テクノロジーを提供してきました。
BIG-IP Next SPK は、前回の市場の変遷において 5G Core を実現する上で重要な役割を果たしましたが、現在は、5G ワークロードと類似点を持ちながらも、トラフィック量が飛躍的に増大する AI 市場の変遷と AI ワークロード配信の課題に対処するために進化しています。 この新たな市場の変遷の需要に応えるため、F5 は NVIDIA BlueField-3 DPU 上に展開され、AI サーバーに向けられた膨大なトラフィックを効果的に管理する BIG-IP Next for Kubernetes をリリースします。
このソリューションは、生成 AI の需要を満たすために最新のアプリケーション配信を変革します。これは、AI クラスターとデータセンターの他の部分との境界点に位置し、ネットワーク、セキュリティ、負荷分散ワークロードを処理する F5 の BIG-IP プラットフォームの Kubernetes ネイティブ実装です。 BIG-IP Next for Kubernetes は、AI クラスターの名前空間をデータセンター ネットワーク テナンシーにマッピングし、適切なセキュリティと簡素化された管理を実現します。 BlueField-3 DPU のハードウェア アクセラレータを活用することで、BIG-IP Next for Kubernetes はさまざまなネットワークおよびデータ サービスを高速化し、CPU コンピューティング リソースをオフロードしてエネルギー効率を最適化します。
たとえば、今年初めに開催された Networking @Scale 2024 イベントで、Meta はオープンソースの学習言語モデル (LLM) Llama 3 のトレーニングがネットワーク遅延によって妨げられ、ハードウェアとソフトウェアの相互作用を調整することで対処したと述べました。 このアプローチにより、全体的なパフォーマンスが 10% 向上しました。 10% は小さな向上のように思えるかもしれませんが、トレーニングに数か月かかるモデルの場合、この改善は数週間の時間の節約につながります。
BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は、大規模な AI インフラストラクチャの構築を検討しているサービス プロバイダーや大企業にさまざまなメリットをもたらします。 これらには以下が含まれます:
組織は、課題と利用可能なソリューションを慎重に検討することで、既存の運用を中断したりセキュリティを損なったりすることなく、AI 向けに最適化されたデータ センターを正常に提供できます。 BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は、Llama 3 などの大規模 LLM を含む AI ワークロードに対してシームレスな統合、強化されたセキュリティ、および向上したパフォーマンスを提供する魅力的なオプションとして登場しました。
詳細については、当社のプレスリリースとNVIDIA のブログ投稿をご覧ください。