ブログ

F5とRed HatのエコシステムによるRAG課題への対応

フランク・ストロベル サムネイル
フランク・ストロベル
2025年4月24日公開

生産性の向上とビジネスの強化を実現する生成 AI の約束は、多くの業界のビジネス リーダーの注目を集めています。 F5 2025年application戦略の現状レポートによると、ほぼすべての回答者(99%)が、意思決定をサポートするためだけでなく、少なくとも1つの運用機能を自動化するためにAIを使用することに抵抗がないと回答しました。

「世界中の組織が、業務、イノベーション、顧客との関わり方を変革するために、生成AIやその他の新興技術の導入を加速させています」と、F5の最高イノベーション責任者であるクナル・アナンド氏は述べています。

しかし、既製の大規模言語モデル (LLM) に基づく標準的な生成 AI モデルでは、リアルタイムのデータ アクセス、ドメイン固有の専門知識、正確な意思決定が成功に不可欠な今日のダイナミックなビジネス環境において、戦略的かつ信頼できる役割を果たすために必要な最新の情報とコンテキスト インテリジェンスが不足していることがよくあります。

生成 AIapplicationsを、より最新かつ正確でドメイン固有の情報源と統合することを目指す組織は、検索ベースのアプローチと生成アプローチを組み合わせて AI 生成応答の品質と精度を向上させる AI フレームワークである検索拡張生成 (RAG) を導入しています。

エンタープライズAIはチームスポーツです

RAG をエンタープライズ AI インフラストラクチャに正常に実装するのは、単純なプラグアンドプレイではありません。 RAG では複数のテクノロジー コンポーネントとテクノロジーのオーケストレーションが必要であり、エンタープライズ AI ソリューションが成功するにはテクノロジー プロバイダー、インフラストラクチャ パートナー、チャネル パートナーで構成されるオープンで協調的なエコシステムが必要であることを示す優れた例です。

RAG の導入には、データ ストレージ、コンテナ プラットフォーム、LLM、トラフィック管理ツール、API、バックエンド インフラストラクチャなどのプロバイダーを含む複数のベンダーが関与します。 エンタープライズ AI はまさにチームスポーツであり、F5 では、大規模な AI をお客様に提供するには多くの関係者が協力する必要があることを認識しています。 成功するには、クラス最高のコンポーネントとソフトウェアを提供する技術プロバイダー、ツールをビジネス成果に変えるチャネル パートナー、そして AI を製品としてではなくソリューション エコシステムとして捉える考え方を含む、協力的なネットワークの力が必要です。

AIのための優れた基盤

F5 と Red Hat OpenShift AI は、 RAG を LLM に導入するための堅牢で統合された基盤を提供し、複数のソースからのデータを生成 AI システムに統合する際に発生するセキュリティとトラフィック管理の複雑さに対処します。 Red Hat と F5 は長年にわたるテクノロジーパートナーシップを結んでおり、両社の現在のコラボレーションにより、既存の LLM への RAG の統合など、AI 主導の取り組みのための堅牢で保護されたスケーラブルなプラットフォームが実現します。

F5 と Red Hat は実績のあるリーダーです。 F5は、CRNによって「データセンターとエッジで最も注目されているAI企業」25社の1社に選ばれました。F5の「オールインワンのapplication配信およびセキュリティプラットフォームは、企業がマルチクラウドネットワーク、AI、APIセキュリティの要求に対応するのに役立ちます」と評価されています。 Red Hat は、Dataquest によってオープンソース エンタープライズ ソリューションのリーダーとして認められ、「同社のオープンソース イノベーションは、エンタープライズ IT の次の時代を定義する」と評されています。

F5 の高度なセキュリティおよびトラフィック管理テクノロジーと、高度な AIapplication開発プラットフォームであるRed Hat OpenShift AI を組み合わせることで、AI 主導の取り組みのためのより安全でスケーラブルな構造を確立できます。 組織は、進化するサイバー脅威から保護され、現代の AI ワークロードの厳しい要件を満たすことができることを認識しながら、自信を持って AIapplicationsを導入できます。

Red Hat と F5、そしてテクノロジー パートナーのエコシステムは、今後も協力して、複雑なハイブリッド環境で顧客がアプリケーションと API を接続し、セキュリティを確保できるよう支援していきます。 組織が AI の可能性を探求する際には、Red Hat や F5 などの信頼できるベンダーに依頼して、一貫性のある統合プラットフォームを提供することで、AI 環境を管理しやすく、コスト効率が高く、安全な状態に保ち、イノベーションとセキュリティが両立する環境を育むことができます。

既存のLLMにRAGを統合する際の課題

RAG は、エンタープライズ グレードの生成 AIapplicationsにとってますます不可欠になってきており、 RAG 市場は今後数年間で大幅な成長が見込まれ、2024 年から 2030 年までの年平均成長率 (CAGR) は 44.7% で、2030 年までに 110 億 3,000 万ドルに達する可能性があります。

RAG は生成 AIapplicationsの出力を大幅に強化できますが、RAG の追加データ コンポーネントが複数のデジタル環境と外部の知識ベースに存在するため、システムの複雑さとセキュリティ リスクが大幅に増大し、LLM に RAG を展開するのは簡単ではありません。 取得要求を渡すために必要なネットワーク接続と、拡張されたデータ応答は、セキュリティとデータ漏洩の危険をもたらし、機密データを保護するために厳格なアクセス制御と暗号化メカニズムを必要とします。

Red Hat OpenShift AI を F5 Distributed Cloud Services および F5 BIG-IP Next for Kubernetes と統合すると、複数の RAG ユースケースをサポートおよび保護するための高度なセキュリティとトラフィック管理テクノロジーを提供する基盤となる一連のサービスが提供されます。

分散クラウド サービスは、SaaS ベースのセキュリティ、ネットワーク、およびアプリケーション管理サービスであり、顧客はデータ センター、マルチクラウドネイティブ環境でapplicationsを展開、保護、運用できます。

一方、 BIG-IP Next for Kubernetes は、AI 処理クラスター全体のトラフィック管理と分散を最適化し、RAG ベースのワークロードをサポートするためのスケーラブルで効率的な API 通信を確保して、パフォーマンスを低下させることなく、信頼性の高い高性能なデータ フローを実現します。

Meta 社が最近発表した Llama 4 の LLM 群に関する発表では、Llama 4 Scout が 1,000 万トークンのコンテキスト ウィンドウを特徴としており、このような拡張コンテキスト ウィンドウによって RAG がすぐに時代遅れになる可能性があるという意見が巻き起こっています。 ただし、Llama 4 LLM は事前トレーニング済みで自己完結型であり、それらの機能用に明示的に設計されていない限り、外部データやプライベート データにリアルタイムでアクセスすることはできません。 逆に、RAG を使用すると、モデルは膨大なデータ ストアから最新かつ関連性の高い情報をリアルタイムで取得して組み込むことができるため、AI 出力が正確でコンテキストに関連性があることが保証されます。 F5 は、RAG が AI ワークフローの動的かつインタラクティブな性質に適切に適応するため、今後も基礎的な生成 AI メカニズムであり続けると考えています

RAGワークロードを保護するためのF5とRed Hatの共同プラットフォーム

Red Hat OpenShift AI に分散クラウド サービスと BIG-IP Next for Kubernetes を導入すると、RAG ワークロードを保護するための強化されたセキュリティ ソリューションが作成されます。 F5 と Red Hat の共同プラットフォームは、RAG の信頼性と拡張性を強化し、RAG を活用した生成 AI ソリューションの管理しやすい基盤を提供することで、精度と関連性を高め、成果の向上とユーザー エクスペリエンスの向上を実現します。

詳細については、ソリューションの概要をご覧ください。 今年の Red Hat Summit に参加する予定がある場合は、ぜひ F5 セッションにご参加ください。