ブログ

F5 の AI データ ファブリックによる AI の民主化

クリス・フォード サムネイル
クリス・フォード
2025年1月8日公開

2024 年初頭に、 F5 AI Data Fabricを導入しました。 これは、お客様のために人工知能の力を活用するために構築した新しいプラットフォームです。 F5 AI Data Fabric により、当社の製品チームはポートフォリオ全体で生成 AI を簡単かつ安全に使用できるようになります。 AI データ ファブリックにより、当社ポートフォリオ全体で AI の導入ペースが加速し、パートナーと顧客に実質的で具体的なメリットがもたらされます。

これは、AI データ ファブリックとは何か、どのように機能するかについてさらに詳しく説明し、AI データ ファブリックが市場投入に役立つ AI 対応の素晴らしい新機能の一部を紹介するブログ投稿シリーズの最初の記事です。 このシリーズを始めるにあたり、急速な導入を促進するという目標を導いた第一原則に焦点を当てます。

AI の民主化

AI データ ファブリックでは、データ サイエンスのバックグラウンドを持たない専門家を含む製品チームが AI に簡単にアクセスできるようにするシステムの構築を目指しました。 このシステムは、データ処理パイプライン、複数の基本トランスフォーマー モデル、共有モジュールのエコシステム、MLOps、およびソフトウェア開発キット (SDK) で公開されるコントロール プレーンを組み合わせたものです。

F5 AI データ ファブリックは本質的にAI ファクトリーであり、F5 が AI で迅速に革新できるよう設計されています。優れた AI ファクトリーと同様に、AI データ ファブリックは AI アプリを構築および実行するための共通のスケーラブルなインフラストラクチャを提供します。 製品チームが次のようなことを実行するのに役立ちます。

  • トレーニングデータを生成してラベル付けする
  • タスク固有のモデルをトレーニングして微調整する
  • これらのモデルをパッケージ化して、実行が必要な場所に展開します。
  • モデルのパフォーマンスとモデルのドリフトを監視する

お客様の立場に立って対応します

私たちがこの取り組みを始めたとき、採用を促進するためにいくつかの非常に具体的な設計目標を掲げました。 ユーザーに作業方法の変更を強制するのではなく、ユーザーの現状に合わせて対応しなければなりませんでした。 これは、すべてのデータの検索と接続を支援し、セルフサービスを可能にし、モビリティとポータビリティをサポートし、コラボレーションとイノベーションを推進するエコシステムを確立し、大規模言語モデル (LLM) を使用してモデル トレーニングを加速することを意味しました。

データがどこにあっても接続可能

優れた AI はデータから始まります。F5 AI Data Fabric は、ポートフォリオ全体の製品から収集された膨大な量のデータから洞察を生成するのに役立ちます。 大規模にアプリを実行するほとんどの企業と同様に、当社は、データが単一のデータ レイクだけでなく、さまざまなストアに存在するという現実を認識しています。 オンプレミスおよびパブリックとプライベートの両方の複数のクラウドに展開されたアプリとデータ ソースに対応します。AI データ ファブリックは、データがどこにあっても接続してコンピューティングをアタッチできます。 共通データ カタログにより、ユーザーは多数のデータ ソースをナビゲートできるようになります。また、チームとして F5 のデータ ガバナンス戦略に適合し、データ資産に対する適切な制御と監査を確実に実行できるようになります。 この戦略により、ユーザーの作業方法を変更することなく、複数のデータ レイクとデータ ソースにわたるさまざまなapplicationsや製品からのデータの分析情報を生成し、管理し、ガバナンスを提供できるようになります。

セルフサービスを有効にする

ユーザーにデータにコンピューティングをアタッチする機能を与えることは、全体像の一部にすぎません。 導入を促進するには、データ サイエンスのユーザー ジャーニー全体を考慮し、どこで摩擦を排除できるかを検討する必要がありました。 

AI アプリのパッケージ化と展開は、その良い例です。 ユーザーが苦労しなくて済むように、私たちは大変な作業の多くをこなしています。 AI データ ファブリックは、Python の依存関係を管理し、HTTP サーバーを含むコンテナーに AI アプリをパッケージ化し、API ゲートウェイでそのエンドポイントを構成し、適切な GPU、CPU、メモリ要件を備えた AI アプリを Kubernetes に必要に応じてデプロイできます。 モデルのトレーニング、パッケージ化、デプロイをすべて 1 つの自動化されたワークフローで、使いやすい SDK を使用して実行することを想像してみてください。 このシステムにより、データ サイエンティストは 10 ~ 15 分で AIapplicationの新しいバージョンを展開できます。 摩擦を減らすことで、データ サイエンティストは最も得意とするデータ サイエンスに集中できるようになります。

AI のモビリティとポータビリティを実現する

これは、お客様の立場に立って対応している当社のもう一つの例です。 構築されたすべてのコンテナは AI データ ファブリックのコンテナ レジストリに保存されるため、ユーザーはエアギャップ環境であっても、実行が必要な場所に AI アプリを自由に展開できます。

エコシステムを確立する

AI の導入を加速することは、迅速なコラボレーションを意味します。 それは、あなたより先に活躍した人たちの仕事を活用し、それを基盤として発展させることを意味します。 AI データ ファブリックの内部には、「AI エコシステム」、一般的な AI 機能と複雑な AI 機能を実行するためのツールと事前構築されたモジュールがあります。 ユーザーがモジュールやモデルをエコシステムに還元すると、それがイノベーションの真の促進要因となります。 モジュールは、事前に構築された異常検出および分類モデルから、検索拡張生成 (RAG) を実行するためのアプリまで多岐にわたります。

LLM を使用してモデルのトレーニングを加速する

導入をさらに加速するために、Agentic AI の原則を採用し、それを F5 AI Data Fabric に適用しました。 最終的に、データについて推論するためのモデルをトレーニングして展開し、AI を使用してその結果得られた洞察について推論し、タスクを識別して完了できるシステムが完成しました。 つまり、大規模な言語モデルを使用してデータを生成し、それを使ってより小規模でタスク固有のモデルをトレーニングするのです。 良い例は、トレーニング データにラベルを付ける方法です。 これはデータ サイエンティストにとって大きな負担ですが、AI データ ファブリックはトレーニング データに接続し、そのデータから意味を抽出し、AI を使用して抽出された意味を推論し、ラベル付けタスクを実行してから、結果として得られたラベル付けされたデータを他の場所にプッシュすることで、軽減することができます。

メリット

導入の容易さに重点を置くことは、当社の製品チームにとって次のような意味を持ちます。

  1. 効率: AI データ ファブリックにより、コラボレーション、モデル開発、展開が迅速化されます。
  2. スケール: 高度に自動化された方法で、何千ものモデルを制御、管理、保守できます。 
  3. リスク軽減: データ処理と独自のモデル実行のための共通の標準化されたシステムとベストプラクティスを組み合わせることで、ガバナンスが大幅に向上し、顧客データが保護され、規制遵守が確保されます。 

楽しみにしている

当社ではすでに F5 AI Data Fabric を使用して、AI アシスタント、分類モデルのトレーニング、Web アプリおよび API 保護 (WAAP) ユースケースの署名生成など、社内のいくつかの重要なプロジェクトを実現しています。 これらの優れた機能は、モデルのトレーニング、微調整、展開、推論のために AI データ ファブリックの基盤モデルとサービスに依存しています。

私たちは、F5 AI Data Fabric を使用して顧客やパートナーに提供できる価値に非常に興奮しています。 この点については今後もさらに進展が期待されますので、今後の投稿では、私たちが使用している技術、克服しなければならなかった課題、実現している特定の製品機能などについて詳しく取り上げますので、ご期待ください。