過去数か月間、F5 は AI ファクトリーについて詳細に議論してきました。 このシリーズの冒頭で、私たちは AI ファクトリーを、大容量で高性能なトレーニングと推論の要件を満たす大規模なストレージ、ネットワーク、コンピューティングへの投資と定義しました。 結局のところ、AI ファクトリーは、AI モデルとサービスがどのように作成、改良、展開されるかを例えています。 従来の製造工場が材料を完成品に変えるのと同じように、AI 工場は AI アプリケーションを構築します。
このブログ記事では、AI アプリケーションと最新のアプリケーションの類似点と相違点について説明し、配信とセキュリティのニーズに焦点を当て、 F5 AI リファレンス アーキテクチャのコンテキストでこれらの最新の AI アプリケーションについて説明します。
現代のアプリケーションは、俊敏性、スケーラビリティ、および強化されたユーザー エクスペリエンスのニーズによって大幅に進化しました。 クラウド コンピューティングの出現は、この進化において極めて重要なポイントとなり、効率的に拡張でき、複数の環境にわたってシームレスに動作できる高度に分散されたシステムの基盤を提供しました。 アプリケーションのモダナイゼーションは、API ベースのシステムへの進化であり、アーキテクチャをハイブリッドおよびマルチクラウドへと導きました。
AI アプリケーションは API への依存をさらに高め、ハイブリッドとマルチクラウドを新たな標準として確立します。 コンテナ化テクノロジーは、基盤となるインフラストラクチャに関係なく、ソフトウェアに対して一貫性のある分離された環境を実現することで、アプリケーションの展開にさらなる革命をもたらしました。 これらの進歩は、従来の最新アプリケーションにとって極めて重要であるだけでなく、AI ファクトリーのバックボーンとしても機能します。 クラウド コンピューティングとコンテナ化によって提供される俊敏性は、AI モデルのトレーニングと展開における集中的な計算要求を管理するために不可欠です。
Kubernetes のようなオーケストレーション ツールは、コンテナ化されたアプリケーションを大規模に管理するために不可欠です。 Kubernetes は、これらのアプリケーションの展開、スケーリング、管理を自動化します。 AI ワークフローでは、Kubernetes は複数のシステムにわたる AI ワークロードの展開を調整し、リソースを効率的に割り当てて、AI モデルのシームレスなスケーリングを可能にします。
このプロセスの重要な側面は、AI モデルの開発、トレーニング、運用化に特有の課題に対処する MLOps です。 MLOps は継続的インテグレーションとデリバリー (CI/CD) をサポートし、AI モデルが継続的にテスト、更新、デプロイされることを保証します。 さらに、マイクロサービス アーキテクチャの採用により、モノリシック システムをより小さく独立して展開可能なサービスに分割することで、最新のアプリケーション開発が変革されました。 このアプローチにより CI/CD が加速され、ソフトウェアの更新がより高速かつ信頼性が高まります。
セキュリティは常に、現代のアプリケーションの進化の基礎となっています。 高度なサイバー脅威の増加に伴い、最新のアプリケーションには、Web アプリケーション ファイアウォール (WAF)、分散型サービス拒否 (DDoS) 保護、API セキュリティなどの高度なセキュリティ対策が統合されています。 ネットワーク層とトランスポート層を標的とするレイヤー 3/4 DDoS 攻撃と、アプリケーション層を狙ったレイヤー 7 DoS 攻撃を区別することが重要です。
AI が進歩するにつれて、脅威モデルは進化します。特に、自然言語処理 (NLP) インターフェースを介してアクセスされる大規模言語モデル (LLM) の場合に顕著です。 LLM に対するリスクには、プロンプト インジェクション攻撃やデータ抽出の脅威、モデル固有の DoS 攻撃など、LLM アプリケーションの OWASP Top 10 で強調されているような脆弱性が含まれます。 これらのセキュリティの強化により、AI アプリケーションの回復力とセキュリティが確保され、進化する脅威に対して AI 主導型ソリューションの整合性と信頼性が維持されます。
AI ファクトリーに関する当社のシリーズをフォローしている方は、 API セキュリティ、ネットワーク セグメンテーション、トラフィック管理、検索拡張生成 (RAG) 、データ処理ユニット (DPU)などのトピックについて説明してきたことをご存知でしょう。 少し立ち止まって、AI ファクトリーが F5 AI リファレンス アーキテクチャにどのように適合するか、AI ファクトリーが AI アプリケーションをどのように生成するか、そしてそれらを配信して保護するための要件について説明しましょう。
F5 は、高性能なアプリケーションの提供をお客様に支援してきた約 30 年の経験を活かし、7 つの構成要素 (推論、RAG、RAG コーパス管理、微調整、トレーニング、外部サービス統合、開発) と 4 つの展開タイプ (AI-SaaS、クラウド ホスト、セルフ ホスト、エッジ ホスト) を含む AI リファレンス アーキテクチャを開発しました。 詳細については、 AI ファクトリーの定義に関するブログをご覧ください。 AI アプリケーションは最新のアプリケーションであり、API に接続され、高度に分散されているため、このリファレンス アーキテクチャは、AI アプリケーションの提供に不可欠なパフォーマンス、運用、セキュリティの課題に対処します。
AI ファクトリーの最も一般的な 2 つの構成要素はトレーニングと推論ですが、完全に機能する AI アプリケーションを作成するには、各構成要素が必要です。 組織によっては、トレーニングや推論に必要な機能を処理するために AI ファクトリーを構築する場合があります。 モデルのトレーニングのためのサービスを利用したり、推論のためのインフラストラクチャを提供したりするために、サードパーティに依存する場合もあります。
中核となる AI アプリケーションは分散されており、分散 Kubernetes コンテナ プラットフォーム上で実行される可能性があります。 これはまさに最新のアプリケーションの定義であり、「AI アプリケーションは最新のアプリケーションの中でも最も最新である」というフレーズの由来でもあります。 しかし、AI 工場を構築する企業にとって、これは何を意味するのでしょうか? AI アプリケーションには、Kubernetes イングレス、マルチテナント エグレス、DNS ベースのトラフィック管理、回復力、可観測性など、今日の最新アプリケーションと同じ配信およびセキュリティ サービスが必要です。 セキュリティには、DDoS 保護、Web アプリケーションと API の保護、最適化テクノロジが必要です。
AI 固有のセキュリティ上の懸念だけでなく、AI と最新のアプリケーションの両方に共通する配信機能とセキュリティ機能に重点を置いていることは意外に思われるかもしれませんが、このアプローチは意図的なものです。 AI アプリケーションは確かに固有のリスクをもたらしますが、多くの場合、新しい革新的な機能が優先され、アプリケーションのセキュリティと配信の基本が軽視されてしまいます。 まず、共通のセキュリティと配信のニーズ(私たちが「簡単に実現できるもの」と呼んでいるもの)に対処することで、組織はアプリ セキュリティに関する既存の専門知識を活用して、すぐに改善を図ることができます。 AI アプリケーションには新しいコンポーネントが含まれる場合もありますが、依然として Web および API のやり取りに大きく依存しており、これは現在の NetOps チームと SecOps チームの能力の範囲内です。 実証済みのセキュリティと配信戦略から始めることで、チームは強固な基盤を構築し、AI アプリケーションがもたらす固有の課題に徐々に取り組むことができます。
F5 AIリファレンスアーキテクチャのハイライト AI ファクトリーの出力だけでなく、組織のビジネス目標に合わせて AI アプリケーションを成功させるための課題とリスクについても説明します。 これを実現するために、私たちは、リスクと課題に関する補完的なトップ 10 リストのペア、つまり、LLM アプリケーション向け OWASP トップ 10とF5 アプリケーション配信トップ 10 を使用することにしました。 ビルディング ブロックの各コンポーネントと相互接続をマッピングし、該当する OWASP LLM トップ 10 と F5 アプリケーション配信トップ 10 が適用される場所を概説しました。 以下のケースでは、AI 推論の例を参照してください。
F5 アプリケーション配信トップ 10 と OWASP LLM トップ 10 を重ね合わせた推論ビルディング ブロックを強調した F5 AI リファレンス アーキテクチャ。
AI アプリケーション内のすべてのコンポーネントと相互接続ポイントは、最新のアプリケーション向けに設計された、確立された配信およびセキュリティ保護の恩恵を受けます。 これは、これらの従来の保護が AI アプリケーションを保護するのに単独で十分であることを示唆するものではありません。 これらの実績のある配信およびセキュリティ ソリューションを基盤として活用することで、組織は AI アプリケーションの配信とセキュリティの体制を大幅に強化できます。 この堅実な出発点から、チームは徐々に専門的なスキルを開発し、AI アプリケーションがもたらす固有の課題とリスクに対処するために必要な高度なツールを採用することができます。
現在、F5 AI リファレンス アーキテクチャはプレビューとして利用可能です。 顧客は来月下旬から始まる F5 のプレミア アプリケーション セキュリティおよび配信カンファレンスであるAppWorldで、インタラクティブな体験を通じて AI リファレンス アーキテクチャ全体を探索する機会が得られます。
F5 はアプリケーション配信とセキュリティのリーダーです。 F5 BIG-IPなどのソリューションは、負荷分散、トラフィック管理、セキュリティなどの重要なサービスを提供します。 従来のアプリケーションで一般的に知られているこれらの機能は、AI アプリケーションが最高レベルの信頼性、パフォーマンス、保護を実現するためにも同様に重要です。
AI ファクトリーを構築する企業にとって、アプリケーション配信とセキュリティに関して F5 に頼る機能は、AI ファクトリーに必要な機能です。 F5 BIG-IP Local Traffic Manager は、F5 rSeriesおよびVELOSを搭載した専用ハードウェアと組み合わせることで、トレーニングと微調整のための高性能なデータ取り込みを可能にし、最も厳しいセキュリティ脅威から AI アプリケーションを保護します。 F5 分散クラウド サービスは、安全なマルチクラウド ネットワーキングと Web アプリケーションおよび API 保護を実現します。 さらに、最近発表されたように、 NVIDIA BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は、大規模な AI インフラストラクチャのトラフィック管理とセキュリティを CPU から DPU にオフロードし、AI アプリケーションの効率、制御、パフォーマンスを向上させます。
F5 が AI ファクトリーのセキュリティを確保し、拡張する方法について詳しくは、今すぐF5 アカウント チームにお問い合わせください。 F5 の AI への注力はこれで終わりではありません。F5が AI アプリケーションをあらゆる場所で保護し、提供する方法をご覧ください。
AI ファクトリーについてさらに詳しく知りたいですか? AI ファクトリー ブログ シリーズ内の他の記事もご覧ください。