エッジ AI とは何ですか? エッジにおける人工知能のナビゲート

エッジ AI は、エッジ コンピューティング環境での人工知能アルゴリズムとモデルの展開を表します。これにより、エッジ サイトとクラウド間の継続的な通信ストリームを相殺する目的で、計算能力とインテリジェンスが意思決定が行われる場所に近づきます。 エッジ AI により、ネットワーク周辺のデバイスがデータをローカルで処理できるようになり、インターネット接続や集中型クラウド サーバーに依存せずにリアルタイムの意思決定が可能になり、計算速度が向上し、データのプライバシーとセキュリティが向上します。 

エッジ AI を理解する

エッジ AI は、人工知能、モノのインターネット (IoT)、エッジ コンピューティング、組み込みシステムなど、複数のテクノロジを融合したもので、それぞれがネットワークのエッジでインテリジェントな処理と意思決定を可能にする上で重要な役割を果たします。 エッジ AI では、組み込みアルゴリズムを使用してリモート システムのアクティビティを監視するほか、温度、言語、顔、動き、画像、近接性、その他のアナログ入力など、センサーやその他の非構造化データのトラッカーなどのデバイスによって収集されたデータを処理します。

これらのリモート システムは、センサー、スマートフォン、IoT デバイス、ドローン、カメラ、さらには車両やスマート家電など、さまざまな形態をとることができます。 これらのシステムから収集されたデータは、エッジ AI アルゴリズムの入力として機能し、システムまたはその周囲の状態に関する貴重な情報を提供します。これにより、エッジ AI システムは変化や異常に迅速に対応し、動作環境を理解できるようになります。 これらのエッジ AI アプリケーションは、コスト、レイテンシ、帯域幅、セキュリティ、プライバシーに関連する問題により、集中型クラウドまたはエンタープライズ データ センター環境で運用するのは非現実的、あるいは不可能です。

エッジ AI には、次のような幅広いユースケースが含まれます。

  • 自律走行車。 エッジ AI により、車両はセンサー データをリアルタイムで分析し、クラウド接続に常に依存することなく、物体検出、車線追跡、衝突回避などのタスクについて瞬時に判断できるようになります。
  • スマートシティ。 都市部全体に配置されたセンサーやカメラからのデータは、交通管理、公共安全監視、廃棄物管理、エネルギー最適化など、さまざまなスマート シティ アプリケーションに活用できます。
  • 農業監視。 エッジ AI は、センサー、ドローン、衛星画像からのデータを分析して作物の健康状態を監視し、灌漑を最適化し、害虫の侵入を検出し、環境条件をリアルタイムで分析することで、精密農業をサポートします。
  • 産業用IoT。 AI アルゴリズムを製造装置やセンサーに直接導入することで、エッジ デバイスは集中型サーバーに依存せずに機械の状態を監視し、欠陥を検出し、生産プロセスを最適化することができます。
  • ヘルスケアモニタリング。 Edge AI は、ウェアラブル デバイス、医療センサー、画像機器からのデータを分析して医療データをリアルタイムで分析し、潜在的な健康上の問題を医療提供者に警告することで、遠隔での患者モニタリングとパーソナライズされた医療をサポートします。

エッジ AI 対 クラウド AI

AI アルゴリズムとモデルを展開するための主なパラダイムは、エッジとクラウドの 2 つです。 クラウドとエッジ サイトにまたがるシステムを統合する戦略は、「クラウドイン」または「エッジアウト」と呼ばれ、どちらもパフォーマンス、セキュリティ、および運用に影響を与えます。

エッジ AI では、リモート デバイスに AI を導入して、ネットワーク エッジまたは分散環境でのリアルタイム処理と意思決定を可能にします。 これらのシステムは、ネットワーク接続に依存したり、中央サーバーにデータを送信したりすることなく、主にローカルでデータを分析できるため、待ち時間が短縮され、応答時間が速くなります。 エッジ AI システムは機密データをローカルに保持するため、クラウドへのデータ送信に伴うプライバシー侵害やセキュリティ リスクも軽減されます。

エッジ AI の例としては、ローカルに展開された AI を使用してセンサー データを分析してリアルタイムで運転の判断を行う自律走行車や、エッジ AI を使用して音声コマンドを処理したり、敷地内の侵入者を監視したりするスマート ホーム デバイスなどがあります。

一方、クラウド AI は、集中型のクラウド サーバーに AI アルゴリズムとモデルを展開し、大規模なデータ処理、トレーニング、推論を可能にするのが特徴です。 クラウド リソースは優れたコンピューティング機能をもたらし、膨大な計算能力を必要とするディープラーニング トレーニングやビッグ データ分析などの複雑な AI タスクを可能にします。 クラウド AI ソリューションは、大量のデータやユーザーに対応するために簡単に拡張できるため、高スループットやリソース集約型の要件を持つアプリケーションに適しています。

Amazon や Netflix が広範なユーザー データに基づいて消費者に新しい製品や代替製品の選択肢を提供するために使用する推奨エンジンは、最適に機能するためにかなりの計算リソースを必要とする大規模なクラウド AI システムの例です。

その他の AI ユースケースには、特定の顧客ニーズを満たすためにエッジ AI とクラウド AI の両方が含まれます。 実際の例としては、シンガポールを拠点とする AI およびデータ プラットフォーム プロバイダーである Sentient.io が挙げられます。同社は、企業が既存のワークフローに AI を簡単に統合できるようにする革新的な AI サービスのハブである Sentient Marketplace を開発しました。 しかし、市場の急速な成功により、オンプレミス、パブリック クラウド、プライベート クラウド、エッジなどの分散環境全体で AI サービスを運用および展開することが困難になるなど、いくつかの複雑な課題が生じました。

顧客サイトで複数のプロバイダーにまたがって運用する場合、個々のクラウド プロバイダー ソリューションは独自の Kubernetes ディストリビューションを提供することがあり、それぞれのクラウド環境でこれらのプラットフォームを活用する必要がある組織にとっては困難な場合があります。 また、顧客サイトでの Sentient の AI モデルの展開プロセスも面倒で、エッジ サイトごとにオンプレミスの Kubernetes 環境を設定し、新しいモデルの更新と同期を手動で処理する必要がありました。 その結果、運用の複雑さが増し、ワークフロー オーケストレーションとセキュリティ ポリシーに一貫性がなくなりました。

Sentient.io は F5 と提携し、オンプレミス、クラウド、エッジの各拠点での展開を簡素化するエンタープライズ対応の Kubernetes プラットフォームであるF5 Distributed Cloud App Stack を使用して、さまざまな業種の顧客にターンキーのエンタープライズ グレードの AI「サービスとしての」ソリューションを提供しています。 このソリューションにより、Sentient の業務が合理化され、レイテンシが削減され、エッジでのリアルタイム AI 処理が可能になりました。 エッジで推論を実行すると、地理的な場所によるネットワークと帯域幅の制約がなくなり、推論がリアルタイムでアプリケーションに即座に配信されます。 このモデル展開の移行により、Sentient.io は、価値実現までの時間を短縮し、リソース割り当てを最適化し、全体的な運用コストを削減し、アプリケーションと API セキュリティをネイティブに統合しながら、高性能な AI アプリケーションを顧客に提供できるようになりました。

このコラボレーションにより、複数のクラウド プラットフォームを手動で管理する従来のプロセスに比べて大幅なコスト削減も実現しました。従来のプロセスでは、専任チームが必要で、多大なリソース コストが発生していました。 F5 分散クラウド サービスにより、 Sentient は運用を簡素化し、リソースを最適化してアプリケーション管理を簡素化することでコストを削減し、他の戦略的イニシアチブにリソースを解放できるようになりました。

エッジ AI へのアクセス

エッジ AI にアクセスするには、デバイス、テクノロジー、インフラストラクチャ コンポーネント、統合を組み合わせて展開し、ネットワーク エッジでの AI 機能への効率的なアクセスと利用を可能にする必要があります。 これらには以下が含まれます:

  • エッジデバイス。 エッジ デバイスにはセンサーとマイクロコントローラが組み込まれており、物理的な世界からデータを収集し、ローカル処理用のエッジ AI モデルをホストできます。 IoT デバイスの例としては、スマート サーモスタット、監視カメラ、土壌水分モニター、産業用センサーなどがあります。 エッジ デバイスには、環境を感知するだけでなく、処理能力と接続性を活用してエッジ AI タスクを実行することができるスマートフォンやタブレット コンピューターも含まれます。
  • テクノロジー。 ネットワーク エッジで AI システムを運用するには、リソースが制限されたデバイスへの展開に最適化されたトレーニング済みのアルゴリズムや AI モデルなど、いくつかの特殊なテクノロジが必要です。 システムの開発と展開を簡素化するツールとライブラリを提供するエッジ AI フレームワークとプラットフォームも利用できます。 
  • インフラストラクチャー。 エッジ AI デバイスが相互に通信し、必要に応じて中央サーバーと通信するには、有線または無線を問わず信頼性の高いネットワーク接続が必要であり、エッジ サーバー、ゲートウェイ、ルーターなどのハードウェア コンポーネントが含まれる場合があります。 さらに、API は AI アーキテクチャの要であり、さまざまなコンポーネントやサービスが相互に通信し、データや命令を交換できるようにします。
  • 統合。 エッジ AI システムは、既存のネットワークやインフラストラクチャと統合して、データのアクセス性を確保し、システムの他のコンポーネントとのスケーラビリティと互換性を実現し、管理の複雑さを軽減できる必要があります。

また、エッジ AI の導入とアクセスに関しては、次の課題と制限があることに留意してください。

  • 計算能力と接続性が限られています。 ほとんどのエッジ デバイスでは、処理能力、メモリ、ストレージが限られているため、エッジで動作できる AI モデルの複雑さとサイズが制限される可能性があります。 また、エッジ デバイスはネットワーク接続のオプションが限られた環境で動作することが多く、これもエッジ AI システムの応答性、パフォーマンス、信頼性に影響を与える可能性があります。
  • コストと入手可能性。 多くの AI モデルは、処理を高速化するためにグラフィックス プロセッシング ユニット (GPU) やデータ プロセッシング ユニット (DPU) などのワークロード アクセラレータの恩恵を受けていますが、特に GPU はコストが高く、物理的な制約により小型フォーム ファクタで使用するには大きすぎる場合があります。 これにより、エッジ デバイスに展開できる AI アルゴリズムの種類が制限され、代替の最適化手法が必要になる可能性があります。
  • データのプライバシー。 一部のエッジ AI システムは機密データや保護されたデータをローカルで生成および処理するため、データのプライバシーや HIPAA や GDPR などの規制への準拠に関する懸念が生じます。 データのプライバシーを確保し、法的要件に準拠するには、適切なデータの匿名化、暗号化、およびアクセス制御対策を実装する必要がある場合があります。
  • デバイス管理。 地理的に分散した場所に分散されたエッジ AI システムの導入、監視、更新、保守は困難な場合があり、効率的な管理ツールとプラットフォームが必要です。

 

エッジ AI セキュリティ対策

エッジ AI の導入においてデータを保護し、セキュリティ リスクを軽減するには、セキュリティに対する多層アプローチを重視した総合的なアプローチが必要です。 エッジ AI は、データから学習し、経験に基づいて動作を進化させる能力など、従来のコンピューティング ワークロードとは重要な点で異なりますが、セキュリティ要件の点では、エッジ AI は従来の IoT システムと多くの共通点があり、次のような多くの同じリスクを共有しています。 

  • マルウェアとサイバー攻撃。 エッジ AI デバイスは、適切に保護されていない場合、マルウェア感染、サイバー攻撃、リモートからの悪用などの被害を受けやすくなります。 ウイルス対策ソフトウェア、侵入検知システム、定期的なソフトウェア更新の実装は、あらゆるエッジ AI セキュリティ戦略の一部である必要があります。
  • ネットワーク セキュリティ。 エッジ AI デバイスは通常、ネットワークを介して相互に通信したり、集中サーバーと通信したりするため、ネットワークベースの攻撃の標的になる可能性があります。 暗号化、認証、アクセス制御メカニズムを使用してネットワーク通信を保護し、転送中のデータを保護し、ネットワーク リソースへの不正アクセスを防止します。
  • データの整合性。 AI モデルと意思決定プロセスの正確性と信頼性を維持するには、エッジ AI デバイスによって処理されるデータの整合性を保護する必要があります。 データの改ざん、操作、破損を検出して軽減するには、データ検証、チェックサム、整合性チェックを実装して、データ入力の信頼性と一貫性を検証する必要があります。
  • 物理的なセキュリティ。 エッジ AI デバイスは遠隔地や敵対的な環境に導入されることが多く、損傷、物理的な改ざん、盗難、破壊行為に対して脆弱です。 改ざん防止エンクロージャや監視カメラなどの物理的な保護手段は、デバイスを損傷、操作、または不正アクセスから保護するのに役立ちます。
  • API セキュリティ。 プラグインを含む AI エコシステムは API を通じて実現されますが、API は脆弱性、不正使用、誤った構成、不十分な認証および承認制御を回避する攻撃の影響を受けます。
  • 大規模言語モデル (LLM) セキュリティ。 LLM と、生成 AI ベースのアプリケーションにおける意思決定に関連するトレーニングおよび推論プロセスには、プロンプト インジェクション、データ ポイズニング、幻覚、バイアスなど、さまざまなリスクが伴います。

エッジ AI アプリケーションを含む、LLM に基づく AI システムの導入と管理に伴うセキュリティ リスクを詳しく調べるには、大規模言語モデル アプリケーションの OWASP Top 10 を確認してください。このレポートでは、脆弱性の認識を促進し、修復戦略を提案し、LLM アプリケーションのセキュリティ体制の改善を目指しています。  

エッジ AI の最適化戦略

ネットワーク エッジやその他のリモート ロケーションに配置されるため、パフォーマンス、リソース使用率、セキュリティなどの考慮事項に基づいてエッジ AI インフラストラクチャを最適化することが重要です。 ただし、リソースが制限されたデバイスの効率とパフォーマンスを最適化することは、許容できるパフォーマンスを維持しながら計算、メモリ、エネルギーの要件を最小限に抑えるにはトレードオフが伴うことが多いため、困難な場合があります。

エッジ AI のパフォーマンスの向上

エネルギー消費を制限しながらエッジでの計算パフォーマンスを最適化するための戦略はいくつか存在します。 低電力モード、スリープ状態、動的電圧および周波数スケーリング (DVFS) などの省電力技術を実装すると、エネルギー消費を削減できます。 GPU や DPU などのハードウェア アクセラレータは、計算負荷の高いタスクを CPU からオフロードし、推論速度を向上させることができます。 動的バッチ処理、適応型推論、モデルスパース性などの手法を使用して、パフォーマンスを維持しながらリソース使用率を最適化します。 それほど負荷のかからないタスクは CPU リソースによって処理される可能性があり、高度に分散されたアーキテクチャ全体でのリソース プーリングの重要性が強調されます。

エッジコンピューティング向けモデルの適応

エッジ AI デバイスでは計算リソースが限られていることが多いため、エッジ デバイスに最適化された軽量 AI モデルを導入する必要があります。 これは、デバイスのリソースとアプリケーションの要件に最も適したモデルを選択する際に、モデルの複雑さ、精度、推論速度のバランスをとることを意味します。 モデルの量子化、プルーニング、知識蒸留などの手法は、パフォーマンスを大幅に低下させることなく AI モデルのサイズを縮小するのに役立ちます。

エッジでのセキュリティの最適化

「境界の消滅」とは、モバイル デバイスやクラウド、エッジ コンピューティングなどの要因により、従来のネットワーク境界が定義されにくくなっていることを指します。 エッジ AI の文脈では、境界の解消とは、エッジ AI デバイスが通常、ネットワーク エッジのリモートおよび動的ネットワーク環境に展開され、データ センターやクラウド環境の外部で、ファイアウォールや侵入検知システムなどの従来の境界ベースのセキュリティ対策を超えて動作することを意味します。 その結果、エッジ AI セキュリティには特別な要件があり、セキュリティ管理と可視性が課題となる、隔離された場所や複雑な分散環境における不正アクセスなどの脅威から保護するために最適化する必要があります。

さらに、API は、AI アプリケーションの複数の部分がデータや命令を交換できるようにする結合組織を提供します。 これらの API 接続とそれを介して実行されるデータの保護は、AI 対応アプリケーションを導入する際に企業が直面しなければならない重要なセキュリティ上の課題であり、さまざまなリスクからエンドポイントを動的に検出して自動的に保護する Web アプリおよび API 保護サービスの導入が必要になります。  

大規模言語モデルのセキュリティ

LMM は、膨大な量のテキスト データに基づく人工知能モデルであり、人間のような優れた流暢さと一貫性を備えた自然言語出力を理解して生成するようにトレーニングされています。 生成 AI アプリケーションの中核となる LLM は、通常、オンライン ブック、投稿、Web サイト、記事など、インターネットから体系的に収集された入力データとコンテンツからトレーニングされます。 ただし、この入力データは、入力データを意図的に操作して生成 AI モデルのパフォーマンスを誤解させたり損なったりする悪意のある人物による攻撃の対象となり、脆弱性、バイアス、信頼できない出力、プライバシー侵害、および不正なコードの実行につながります。

LLM にとって最大のセキュリティ リスクは次のとおりです。

  • 速やかな注入。 攻撃者は LMM 入力プロンプトを操作して生成された出力に影響を与え、偏った、不快な、または不正確なコンテンツを生成して LLM 生成出力の信頼性と信頼性を損なう可能性があります。
  • モデル中毒。 これらの攻撃では、LLM のトレーニング フェーズ中に悪意のあるデータを挿入して、LLM の動作を操作したり、パフォーマンスを低下させたりします。 攻撃者は、トレーニング データセットに汚染されたデータ サンプルを導入することで、トレーニング済みの LLM モデルにバイアス、脆弱性、またはバックドアを挿入できます。
  • サービス拒否 (DoS) をモデル化します。 これらの攻撃は、悪意のあるリクエストや入力を大量に送信して LLM の可用性とパフォーマンスを攻撃し、リクエストのトークン化や LLM コンテキスト ウィンドウのしきい値を超え、速度低下、中断、またはサービス停止を引き起こします。 これらのリソース枯渇攻撃は、パフォーマンスの低下やシステムの不安定化につながり、AI システムの可用性と信頼性に影響を与え、モデルが学習してユーザーのプロンプトに応答する能力を損なう可能性があります。

これらのセキュリティ上の課題に対処するには、プロンプト インジェクションを防止し、プロンプト サニタイズ、入力検証、プロンプト フィルタリングなどの手法を使用して、悪意のある入力によってモデルが操作されないようにする多面的なアプローチが必要です。 DoS 攻撃に対抗するには、レート制限、異常検出、動作分析を含む階層化された防御戦略を作成し、疑わしいまたは悪意のあるネットワーク アクティビティを検出して識別します。 業界はこれらのリスクを効果的に管理するために進化を続けており、アプリケーション スタック内の LLM プロキシ、ファイアウォール、ゲートウェイ、および安全なミドルウェアが急速に開発されています。

エッジ AI の未来

エッジ AI は、ネットワーク エッジで急速に進化する一連のテクノロジの一部であり、インテリジェントで応答性に優れ、より効率的なコンピューティング環境の新しい時代を切り開きます。 これらのテクノロジーは、プロセッサ、ネットワーク、ソフトウェア、セキュリティの進歩の接点にあり、業界全体にわたるイノベーションと変革の新たな可能性を切り開きます。 これらのエッジ コンピューティングのユース ケースでは、ネットワーク エッジでのリアルタイム分析と意思決定を活用し、組織がデータをソースの近くで処理および分析し、遅延の影響を受けやすいアプリケーションの応答時間を改善したり、コンテンツをリアルタイムで配信したりできるようにします。

また、ネットワーク エッジ全体にコンピューティング リソースを分散することで、組織は変化するワークロードの需要に迅速に適応し、リソースの使用率を最適化して、システム全体のパフォーマンスと効率を向上させることができます。 これらの可能性は、エッジ AI アプリケーションをサポートするために必要なコンピューティング、ストレージ、ネットワーク リソースを提供するエッジ サーバー、エッジ コンピューティング プラットフォームとライブラリ、AI オンチップ プロセッサなど、エッジ コンピューティング インフラストラクチャ専用のコンポーネントの進化によって実現しています。

エッジ AI は、ネットワーク エッジでのインフラストラクチャのルネッサンスを推進する上で重要な役割を果たしており、AI と IoT の統合により、エッジでのインテリジェントな意思決定が推進され、ヘルスケア、産業オートメーション、ロボット工学、スマート インフラストラクチャなどの分野で革新的なアプリケーションが推進されています。

TinyML は、マイクロコントローラやエッジ AI デバイスなどのリソースが制限されたエッジ デバイスへの展開に最適化された軽量ソフトウェア ML モデルとアルゴリズムの作成に重点を置いた ML と AI へのアプローチです。 TinyML ベースのアルゴリズムは、エネルギー効率が高く、クラウド リソースに依存せずに推論タスクをローカルで実行できるように設計されています。

さらに、CPU からデータ処理タスクをオフロードして高速化するように設計された特殊なハードウェア コンポーネントである DPU などのコンパクトで強力なプロセッサは、大量のデータの効率的な処理がパフォーマンスとスケーラビリティにとって非常に重要なエッジ コンピューティングや AI/ML ワークロードでますます使用されています。 この効率は、電力制約によりエネルギーを大量に消費する GPU ソリューションの使用が制限されるエッジ コンピューティング環境では特に価値があります。

エッジからクラウド、データセンターまで連続的にこれらのイノベーションをリンクすることで、ハイブリッド、マルチクラウド、エッジ コンピューティング リソースを含む分散アーキテクチャ全体でシームレスなデータ処理、分析、観測性を実現する新世代のネットワーク ソリューションが生まれます。 これらのネットワークは、通信、統合、自動化を促進し、分散コンピューティング環境内でシームレスなデータ交換と同期を可能にするため、エッジ コンピューティング プラットフォームの重要なコンポーネントである API にますます依存するようになります。 API は標準化されたインターフェースを提供することで、多様なエッジ デバイス、システム、サービス間の相互運用性も実現し、エッジ リソースとサービスの動的なプロビジョニング、管理、制御も可能になります。

これらの広範囲にわたる分散アーキテクチャでは、データ ソースの近くにあるエッジ デバイスから、データ センターにある集中型 (または分散型) のクラウド サーバーに至るまで、連続体に沿った複数のポイントでデータを安全に処理および分析できます。 このエッジからあらゆる場所への連続性により、組織は複数のコンピューティング環境の強みを安全に活用し、従来のワークロードと AI ワークロードを統合して、最新のアプリケーションの多様な要件を満たすことができます。

F5 がどのように役立つか

F5 は、ネットワーク エッジの AI アプリケーションを含む、分散環境全体にわたって、あらゆる場所のあらゆるアプリケーション、あらゆる API を保護、配信、最適化する唯一のソリューション プロバイダーです。 AI ベースのアプリは最新のアプリの中でも最新のものであり、LLM リスクや分散推論など、GenAI を採用したシステムには特定の考慮事項がある一方で、これらのアプリケーションは、遅延、サービス拒否、ソフトウェアの脆弱性、ボットや悪意のある自動化を使用する悪意のある行為者による悪用などの影響を受けることもあります。

新しい AI 主導のデジタル エクスペリエンスは高度に分散されており、オンプレミス、クラウド、エッジ環境にまたがるさまざまなデータ ソース、モデル、サービスが混在し、すべてが拡大する API ネットワークによって接続されるため、セキュリティ上の大きな課題が生じます。 これらの API 接続とそれを介して実行されるデータの保護は、企業が AI 対応サービスをさらに展開する際に直面しなければならない重要なセキュリティ上の課題です。

F5 分散クラウド サービスは、 API コード テストとテレメトリ分析を備えた業界で最も包括的な AI 対応 API セキュリティ ソリューションを提供し、高度な AI を活用した脅威から保護するとともに、マルチクラウドおよびエッジ アプリケーション環境のセキュリティ保護と管理を容易にします。 F5 マルチクラウド ネットワーキング ソリューションは、トラフィック最適化を備えた SaaS ベースのネットワーキングと、パブリック クラウド、プライベート クラウド、エッジ展開向けのセキュリティ サービスを単一のコンソールから提供し、クラウド依存のサービスと複数のサードパーティ ベンダーの管理負担を軽減します。 F5 ネットワーク ソリューションを使用すると、AI の導入が加速され、エンドツーエンドのポリシー管理と、完全に自動化可能で信頼性の高いインフラストラクチャの観測性が実現します。 

さらに、新しいF5 AI Data Fabric は、顧客がより多くの情報に基づいた意思決定を行い、より迅速な行動をとるのに役立つ革新的なソリューションを構築するための基盤となります。 分散クラウド サービス、BIG-IP、NGINX からのテレメトリを組み合わせることで、比類のない洞察を提供し、リアルタイム レポートを生成し、アクションを自動化し、AI エージェントを強化します。

F5 は、自然言語インターフェースを使用して顧客が F5 ソリューションを操作および管理する方法を変える AI アシスタントもリリースします。 F5 AI Data Fabric を搭載した AI アシスタントは、データの視覚化、異常の特定、ポリシー構成のクエリと生成、修復手順の適用を行います。 また、組み込みのカスタマー サポート マネージャーとしても機能し、顧客が質問したり、製品ナレッジ ベース全体のモデル トレーニングに基づいて推奨事項を受け取ったりできるようになります。

F5 ソリューションは、データセンターからエッジまで AI ベースのアプリケーションを強化および保護することで、予測可能なパフォーマンスとセキュリティを実現する強力なツールを提供し、AI への投資から最大限の価値を引き出すことができます。