急速に進化する今日のテクノロジー環境において、AI の導入と運用化は企業にとって重要な差別化要因となっています。 企業が AI の力を活用して意思決定や効率性を高めたり、AI を活用した差別化製品を開発したりするにつれ、AI ファクトリーが基礎モデルとして登場しています。 AI ファクトリーの中核となるのは、7 つの AI ビルディング ブロックの 1 つであり、AI 出力をコンテキスト認識型、より正確でタイムリーなものにする Retrieval-Augmented Generation (RAG) です。
以前の AI ファクトリー シリーズでは、 AI ファクトリーを、大容量で高性能なトレーニングと推論の要件を満たす大規模なストレージ、ネットワーク、コンピューティングへの投資と定義しました。 この記事では、私たちが定義した 2 つの AI ビルディング ブロックについて説明します。 RAG および RAG コーパス管理。
従来の製造工場と同様に、AI ファクトリーは、サーバー、GPU、DPU、ストレージの綿密に調整されたインフラストラクチャを通じて AI 出力とモデルを構築するように設計されています。 トレーニングと推論をサポートする AI ファクトリーは、大規模な AI アプリケーションの開発に不可欠です。 ただし、RAG を組み込んで出力のコンテキスト関連性を高めると、AI ファクトリーの真の可能性が解き放たれます。
始める前に、検索拡張生成を定義しましょう。 RAG は、独自のデータを組み込んで AI モデルを補完し、コンテキストを認識した AI 出力を提供する AI 技術です。 アプリケーションの展開が分散化され、ハイブリッドおよびマルチクラウド環境でホストされるようになると、企業のデータはあらゆる場所に存在します。 AI 向けデータの戦略的優位性を活用したい組織にとって、関連データをどのように接続して大規模言語モデル (LLM) などの AI モデルへの入力を増強するかという疑問が生じます。 組織は、この問題を解決し、AI モデルから分散データ サイロまでの安全な高速道路を作成するために RAG に注目しています。 これにより、最新の情報にアクセスできるようになり、出力がタイムリーになり、状況を認識し、より正確になります。 これがないと、微調整された AI モデルであっても、トレーニングが完了するとすぐに頻繁に変更される最新の情報にアクセスできなくなります。
いくつかの例を挙げてください。 考慮すべき 2 つは、視覚ベースの自動運転車と、リクエストのコンテキスト関連性の欠如から幻覚を起こしたり推測したりする LLM です。
自動運転車の場合、歩行者、自転車、他の自動車が走行する道路を安全に移動するには、車両の位置と周囲の絶えず変化する環境に基づくリアルタイムのデータを推論に含める必要があります。 LLM の場合、顧客サポート チャットボットの例を使用すると、変更ログ、ナレッジ ベース、システム ステータス、テレメトリなどの製品情報へのアクセスと、サポート チケット、購入履歴、顧客プロファイルなどの固有の顧客情報を組み合わせることで、一般的な LLM 応答が貴重な出力に変換されます。
ハイブリッド環境とマルチクラウド環境はますます複雑になり、ストレージの展開はさまざまな場所にサイロ化されるようになっています。 F5 では、この現象を「火の玉」と呼んでいます。
AI ファクトリーのコンテキストにおける RAG は、ベクター データベースとコンテンツ リポジトリから追加のコンテキストを取得して基礎 AI モデルの基本的な推論機能を向上させ、それを利用してコンテキストが強化された応答を生成します。 AI ファクトリー内では、RAG のオーケストレーション レイヤーが AI モデルと拡張サービス間の複雑なやり取りを管理し、補足データを AI ワークフローにシームレスに統合します。
たとえば、前述の顧客サポートのシナリオでは、RAG はさまざまな関連データベースやソースからデータにアクセスして組み込むことができます。 その結果、関連性の高い AI 出力が生成されます。 RAG を AI ファクトリー フレームワークに統合することで、企業は推論応答の品質と適時性を向上させ、より効果的な意思決定と運用効率を高めることができます。
F5 の AI リファレンス アーキテクチャでは、大規模 AI インフラストラクチャの成功に必要な 7 つの AI ビルディング ブロックの 1 つである RAG に焦点を当てています。
RAG コーパス管理は、RAG による推論を実現するために不可欠なデータの取り込みと前処理に重点を置いています。 これには、データの正規化、トークン化、埋め込み、ベクター データベースへの入力などの一連の手順が含まれ、コンテンツが RAG 呼び出しに最適に準備されるようにします。
AI ファクトリー内では、このプロセスはさまざまなデータ形式を正規化して、一貫性のある構造化されたデータセットを作成することから始まります。 次に、このデータを AI モデルがクエリできる形式に変換するための埋め込みが生成されます。 準備されたデータはベクター データベース、ナレッジ グラフ、コンテンツ リポジトリに挿入され、推論中にリアルタイムで検索できるように簡単にアクセスできるようになります。 RAG Corpus Management は、データがクリーンかつ構造化され、取得可能であることを保証することで、AI 出力の全体的な有効性と精度を向上させます。 このプロセスは、高品質でコンテキストが豊富な AI 応答を維持することを目指す企業にとって不可欠です。
RAG コーパス管理は、成功する AI アーキテクチャのために F5 が定義した 7 つの AI ビルディング ブロックの 1 つです。
RAG は AI ファクトリーのコア構成要素ですが、あらゆる規模の AI モデルの展開に必要です。 基礎的な AI モデル (GPT、Llama など) は公開情報に基づいてトレーニングされるため、基礎的なモデルを導入しても、同じモデルを導入している他の組織に対して十分な競争上の優位性は得られません。 RAG を介して独自のデータと非公開データを統合することは、AI 導入の規模を問わず、あらゆる組織にとって、リクエストをデータで補完するために不可欠です。 一例としては、顧客サポート チャットボットと、有用なソリューションを提供するために製品および顧客固有の情報にアクセスできる LLM 搭載サポート アプリの要件が挙げられます。 モデルをトレーニングまたは微調整する場合でも、より正確な出力を得るには、常に変化するデータにアクセスする必要があります。
組織がイノベーションと業務効率化を推進するために AI への投資を続ける中、AI ファクトリーにおける RAG の重要性は強調しすぎることはありません。 RAG は、コンテキスト認識、精度、適時性を強化することで、AI モデルがより関連性と信頼性の高い出力を提供することを保証します。 データ サイロと AI ファクトリー間の安全な統合を目指す企業にとって、 F5 Distributed Cloud Network Connect は、独自の企業データ ロケーションを安全に接続し、制限付きアクセスを提供し、ネットワークを簡素化し、ゾーンや地域をまたいでデータのストレージとモビリティを実現する、最新の高速道路を提供します。
F5 の AI への注力はこれで終わりではありません。F5が AI アプリをあらゆる場所で保護し、配信する方法をご覧ください。
AI ファクトリーについてさらに詳しく知りたいですか? AI ファクトリー ブログ シリーズ内の他の記事もご覧ください。