エッジ AI は、エッジ コンピューティング環境での人工知能アルゴリズムとモデルの展開を表します。これにより、エッジ サイトとクラウド間の継続的な通信ストリームを相殺する目的で、計算能力とインテリジェンスが意思決定が行われる場所に近づきます。 エッジ AI により、ネットワーク周辺のデバイスがデータをローカルで処理できるようになり、インターネット接続や集中型クラウド サーバーに依存せずにリアルタイムの意思決定が可能になり、計算速度が向上し、データのプライバシーとセキュリティが向上します。
エッジ AI は、人工知能、モノのインターネット (IoT)、エッジ コンピューティング、組み込みシステムなど、複数のテクノロジを融合したもので、それぞれがネットワークのエッジでインテリジェントな処理と意思決定を可能にする上で重要な役割を果たします。 エッジ AI では、組み込みアルゴリズムを使用してリモート システムのアクティビティを監視するほか、温度、言語、顔、動き、画像、近接性、その他のアナログ入力など、センサーやその他の非構造化データのトラッカーなどのデバイスによって収集されたデータを処理します。
これらのリモート システムは、センサー、スマートフォン、IoT デバイス、ドローン、カメラ、さらには車両やスマート家電など、さまざまな形態をとることができます。 これらのシステムから収集されたデータは、エッジ AI アルゴリズムの入力として機能し、システムまたはその周囲の状態に関する貴重な情報を提供します。これにより、エッジ AI システムは変化や異常に迅速に対応し、動作環境を理解できるようになります。 これらのエッジ AI アプリケーションは、コスト、レイテンシ、帯域幅、セキュリティ、プライバシーに関連する問題により、集中型クラウドまたはエンタープライズ データ センター環境で運用するのは非現実的、あるいは不可能です。
エッジ AI には、次のような幅広いユースケースが含まれます。
AI アルゴリズムとモデルを展開するための主なパラダイムは、エッジとクラウドの 2 つです。 クラウドとエッジ サイトにまたがるシステムを統合する戦略は、「クラウドイン」または「エッジアウト」と呼ばれ、どちらもパフォーマンス、セキュリティ、および運用に影響を与えます。
エッジ AI では、リモート デバイスに AI を導入して、ネットワーク エッジまたは分散環境でのリアルタイム処理と意思決定を可能にします。 これらのシステムは、ネットワーク接続に依存したり、中央サーバーにデータを送信したりすることなく、主にローカルでデータを分析できるため、待ち時間が短縮され、応答時間が速くなります。 エッジ AI システムは機密データをローカルに保持するため、クラウドへのデータ送信に伴うプライバシー侵害やセキュリティ リスクも軽減されます。
エッジ AI の例としては、ローカルに展開された AI を使用してセンサー データを分析してリアルタイムで運転の判断を行う自律走行車や、エッジ AI を使用して音声コマンドを処理したり、敷地内の侵入者を監視したりするスマート ホーム デバイスなどがあります。
一方、クラウド AI は、集中型のクラウド サーバーに AI アルゴリズムとモデルを展開し、大規模なデータ処理、トレーニング、推論を可能にするのが特徴です。 クラウド リソースは優れたコンピューティング機能をもたらし、膨大な計算能力を必要とするディープラーニング トレーニングやビッグ データ分析などの複雑な AI タスクを可能にします。 クラウド AI ソリューションは、大量のデータやユーザーに対応するために簡単に拡張できるため、高スループットやリソース集約型の要件を持つアプリケーションに適しています。
Amazon や Netflix が広範なユーザー データに基づいて消費者に新しい製品や代替製品の選択肢を提供するために使用する推奨エンジンは、最適に機能するためにかなりの計算リソースを必要とする大規模なクラウド AI システムの例です。
その他の AI ユースケースには、特定の顧客ニーズを満たすためにエッジ AI とクラウド AI の両方が含まれます。 実際の例としては、シンガポールを拠点とする AI およびデータ プラットフォーム プロバイダーである Sentient.io が挙げられます。同社は、企業が既存のワークフローに AI を簡単に統合できるようにする革新的な AI サービスのハブである Sentient Marketplace を開発しました。 しかし、市場の急速な成功により、オンプレミス、パブリック クラウド、プライベート クラウド、エッジなどの分散環境全体で AI サービスを運用および展開することが困難になるなど、いくつかの複雑な課題が生じました。
顧客サイトで複数のプロバイダーにまたがって運用する場合、個々のクラウド プロバイダー ソリューションは独自の Kubernetes ディストリビューションを提供することがあり、それぞれのクラウド環境でこれらのプラットフォームを活用する必要がある組織にとっては困難な場合があります。 また、顧客サイトでの Sentient の AI モデルの展開プロセスも面倒で、エッジ サイトごとにオンプレミスの Kubernetes 環境を設定し、新しいモデルの更新と同期を手動で処理する必要がありました。 その結果、運用の複雑さが増し、ワークフロー オーケストレーションとセキュリティ ポリシーに一貫性がなくなりました。
Sentient.io は F5 と提携し、オンプレミス、クラウド、エッジの各拠点での展開を簡素化するエンタープライズ対応の Kubernetes プラットフォームであるF5 Distributed Cloud App Stack を使用して、さまざまな業種の顧客にターンキーのエンタープライズ グレードの AI「サービスとしての」ソリューションを提供しています。 このソリューションにより、Sentient の業務が合理化され、レイテンシが削減され、エッジでのリアルタイム AI 処理が可能になりました。 エッジで推論を実行すると、地理的な場所によるネットワークと帯域幅の制約がなくなり、推論がリアルタイムでアプリケーションに即座に配信されます。 このモデル展開の移行により、Sentient.io は、価値実現までの時間を短縮し、リソース割り当てを最適化し、全体的な運用コストを削減し、アプリケーションと API セキュリティをネイティブに統合しながら、高性能な AI アプリケーションを顧客に提供できるようになりました。
このコラボレーションにより、複数のクラウド プラットフォームを手動で管理する従来のプロセスに比べて大幅なコスト削減も実現しました。従来のプロセスでは、専任チームが必要で、多大なリソース コストが発生していました。 F5 分散クラウド サービスにより、 Sentient は運用を簡素化し、リソースを最適化してアプリケーション管理を簡素化することでコストを削減し、他の戦略的イニシアチブにリソースを解放できるようになりました。
エッジ AI にアクセスするには、デバイス、テクノロジー、インフラストラクチャ コンポーネント、統合を組み合わせて展開し、ネットワーク エッジでの AI 機能への効率的なアクセスと利用を可能にする必要があります。 これらには以下が含まれます:
また、エッジ AI の導入とアクセスに関しては、次の課題と制限があることに留意してください。
エッジ AI の導入においてデータを保護し、セキュリティ リスクを軽減するには、セキュリティに対する多層アプローチを重視した総合的なアプローチが必要です。 エッジ AI は、データから学習し、経験に基づいて動作を進化させる能力など、従来のコンピューティング ワークロードとは重要な点で異なりますが、セキュリティ要件の点では、エッジ AI は従来の IoT システムと多くの共通点があり、次のような多くの同じリスクを共有しています。
エッジ AI アプリケーションを含む、LLM に基づく AI システムの導入と管理に伴うセキュリティ リスクを詳しく調べるには、大規模言語モデル アプリケーションの OWASP Top 10 を確認してください。このレポートでは、脆弱性の認識を促進し、修復戦略を提案し、LLM アプリケーションのセキュリティ体制の改善を目指しています。
ネットワーク エッジやその他のリモート ロケーションに配置されるため、パフォーマンス、リソース使用率、セキュリティなどの考慮事項に基づいてエッジ AI インフラストラクチャを最適化することが重要です。 ただし、リソースが制限されたデバイスの効率とパフォーマンスを最適化することは、許容できるパフォーマンスを維持しながら計算、メモリ、エネルギーの要件を最小限に抑えるにはトレードオフが伴うことが多いため、困難な場合があります。
エネルギー消費を制限しながらエッジでの計算パフォーマンスを最適化するための戦略はいくつか存在します。 低電力モード、スリープ状態、動的電圧および周波数スケーリング (DVFS) などの省電力技術を実装すると、エネルギー消費を削減できます。 GPU や DPU などのハードウェア アクセラレータは、計算負荷の高いタスクを CPU からオフロードし、推論速度を向上させることができます。 動的バッチ処理、適応型推論、モデルスパース性などの手法を使用して、パフォーマンスを維持しながらリソース使用率を最適化します。 それほど負荷のかからないタスクは CPU リソースによって処理される可能性があり、高度に分散されたアーキテクチャ全体でのリソース プーリングの重要性が強調されます。
エッジ AI デバイスでは計算リソースが限られていることが多いため、エッジ デバイスに最適化された軽量 AI モデルを導入する必要があります。 これは、デバイスのリソースとアプリケーションの要件に最も適したモデルを選択する際に、モデルの複雑さ、精度、推論速度のバランスをとることを意味します。 モデルの量子化、プルーニング、知識蒸留などの手法は、パフォーマンスを大幅に低下させることなく AI モデルのサイズを縮小するのに役立ちます。
「境界の消滅」とは、モバイル デバイスやクラウド、エッジ コンピューティングなどの要因により、従来のネットワーク境界が定義されにくくなっていることを指します。 エッジ AI の文脈では、境界の解消とは、エッジ AI デバイスが通常、ネットワーク エッジのリモートおよび動的ネットワーク環境に展開され、データ センターやクラウド環境の外部で、ファイアウォールや侵入検知システムなどの従来の境界ベースのセキュリティ対策を超えて動作することを意味します。 その結果、エッジ AI セキュリティには特別な要件があり、セキュリティ管理と可視性が課題となる、隔離された場所や複雑な分散環境における不正アクセスなどの脅威から保護するために最適化する必要があります。
さらに、API は、AI アプリケーションの複数の部分がデータや命令を交換できるようにする結合組織を提供します。 これらの API 接続とそれを介して実行されるデータの保護は、AI 対応アプリケーションを導入する際に企業が直面しなければならない重要なセキュリティ上の課題であり、さまざまなリスクからエンドポイントを動的に検出して自動的に保護する Web アプリおよび API 保護サービスの導入が必要になります。
LMM は、膨大な量のテキスト データに基づく人工知能モデルであり、人間のような優れた流暢さと一貫性を備えた自然言語出力を理解して生成するようにトレーニングされています。 生成 AI アプリケーションの中核となる LLM は、通常、オンライン ブック、投稿、Web サイト、記事など、インターネットから体系的に収集された入力データとコンテンツからトレーニングされます。 ただし、この入力データは、入力データを意図的に操作して生成 AI モデルのパフォーマンスを誤解させたり損なったりする悪意のある人物による攻撃の対象となり、脆弱性、バイアス、信頼できない出力、プライバシー侵害、および不正なコードの実行につながります。
LLM にとって最大のセキュリティ リスクは次のとおりです。
これらのセキュリティ上の課題に対処するには、プロンプト インジェクションを防止し、プロンプト サニタイズ、入力検証、プロンプト フィルタリングなどの手法を使用して、悪意のある入力によってモデルが操作されないようにする多面的なアプローチが必要です。 DoS 攻撃に対抗するには、レート制限、異常検出、動作分析を含む階層化された防御戦略を作成し、疑わしいまたは悪意のあるネットワーク アクティビティを検出して識別します。 業界はこれらのリスクを効果的に管理するために進化を続けており、アプリケーション スタック内の LLM プロキシ、ファイアウォール、ゲートウェイ、および安全なミドルウェアが急速に開発されています。
エッジ AI は、ネットワーク エッジで急速に進化する一連のテクノロジの一部であり、インテリジェントで応答性に優れ、より効率的なコンピューティング環境の新しい時代を切り開きます。 これらのテクノロジーは、プロセッサ、ネットワーク、ソフトウェア、セキュリティの進歩の接点にあり、業界全体にわたるイノベーションと変革の新たな可能性を切り開きます。 これらのエッジ コンピューティングのユース ケースでは、ネットワーク エッジでのリアルタイム分析と意思決定を活用し、組織がデータをソースの近くで処理および分析し、遅延の影響を受けやすいアプリケーションの応答時間を改善したり、コンテンツをリアルタイムで配信したりできるようにします。
また、ネットワーク エッジ全体にコンピューティング リソースを分散することで、組織は変化するワークロードの需要に迅速に適応し、リソースの使用率を最適化して、システム全体のパフォーマンスと効率を向上させることができます。 これらの可能性は、エッジ AI アプリケーションをサポートするために必要なコンピューティング、ストレージ、ネットワーク リソースを提供するエッジ サーバー、エッジ コンピューティング プラットフォームとライブラリ、AI オンチップ プロセッサなど、エッジ コンピューティング インフラストラクチャ専用のコンポーネントの進化によって実現しています。
エッジ AI は、ネットワーク エッジでのインフラストラクチャのルネッサンスを推進する上で重要な役割を果たしており、AI と IoT の統合により、エッジでのインテリジェントな意思決定が推進され、ヘルスケア、産業オートメーション、ロボット工学、スマート インフラストラクチャなどの分野で革新的なアプリケーションが推進されています。
TinyML は、マイクロコントローラやエッジ AI デバイスなどのリソースが制限されたエッジ デバイスへの展開に最適化された軽量ソフトウェア ML モデルとアルゴリズムの作成に重点を置いた ML と AI へのアプローチです。 TinyML ベースのアルゴリズムは、エネルギー効率が高く、クラウド リソースに依存せずに推論タスクをローカルで実行できるように設計されています。
さらに、CPU からデータ処理タスクをオフロードして高速化するように設計された特殊なハードウェア コンポーネントである DPU などのコンパクトで強力なプロセッサは、大量のデータの効率的な処理がパフォーマンスとスケーラビリティにとって非常に重要なエッジ コンピューティングや AI/ML ワークロードでますます使用されています。 この効率は、電力制約によりエネルギーを大量に消費する GPU ソリューションの使用が制限されるエッジ コンピューティング環境では特に価値があります。
エッジからクラウド、データセンターまで連続的にこれらのイノベーションをリンクすることで、ハイブリッド、マルチクラウド、エッジ コンピューティング リソースを含む分散アーキテクチャ全体でシームレスなデータ処理、分析、観測性を実現する新世代のネットワーク ソリューションが生まれます。 これらのネットワークは、通信、統合、自動化を促進し、分散コンピューティング環境内でシームレスなデータ交換と同期を可能にするため、エッジ コンピューティング プラットフォームの重要なコンポーネントである API にますます依存するようになります。 API は標準化されたインターフェースを提供することで、多様なエッジ デバイス、システム、サービス間の相互運用性も実現し、エッジ リソースとサービスの動的なプロビジョニング、管理、制御も可能になります。
これらの広範囲にわたる分散アーキテクチャでは、データ ソースの近くにあるエッジ デバイスから、データ センターにある集中型 (または分散型) のクラウド サーバーに至るまで、連続体に沿った複数のポイントでデータを安全に処理および分析できます。 このエッジからあらゆる場所への連続性により、組織は複数のコンピューティング環境の強みを安全に活用し、従来のワークロードと AI ワークロードを統合して、最新のアプリケーションの多様な要件を満たすことができます。
F5 は、ネットワーク エッジの AI アプリケーションを含む、分散環境全体にわたって、あらゆる場所のあらゆるアプリケーション、あらゆる API を保護、配信、最適化する唯一のソリューション プロバイダーです。 AI ベースのアプリは最新のアプリの中でも最新のものであり、LLM リスクや分散推論など、GenAI を採用したシステムには特定の考慮事項がある一方で、これらのアプリケーションは、遅延、サービス拒否、ソフトウェアの脆弱性、ボットや悪意のある自動化を使用する悪意のある行為者による悪用などの影響を受けることもあります。
新しい AI 主導のデジタル エクスペリエンスは高度に分散されており、オンプレミス、クラウド、エッジ環境にまたがるさまざまなデータ ソース、モデル、サービスが混在し、すべてが拡大する API ネットワークによって接続されるため、セキュリティ上の大きな課題が生じます。 これらの API 接続とそれを介して実行されるデータの保護は、企業が AI 対応サービスをさらに展開する際に直面しなければならない重要なセキュリティ上の課題です。
F5 分散クラウド サービスは、 API コード テストとテレメトリ分析を備えた業界で最も包括的な AI 対応 API セキュリティ ソリューションを提供し、高度な AI を活用した脅威から保護するとともに、マルチクラウドおよびエッジ アプリケーション環境のセキュリティ保護と管理を容易にします。 F5 マルチクラウド ネットワーキング ソリューションは、トラフィック最適化を備えた SaaS ベースのネットワーキングと、パブリック クラウド、プライベート クラウド、エッジ展開向けのセキュリティ サービスを単一のコンソールから提供し、クラウド依存のサービスと複数のサードパーティ ベンダーの管理負担を軽減します。 F5 ネットワーク ソリューションを使用すると、AI の導入が加速され、エンドツーエンドのポリシー管理と、完全に自動化可能で信頼性の高いインフラストラクチャの観測性が実現します。
さらに、新しいF5 AI Data Fabric は、顧客がより多くの情報に基づいた意思決定を行い、より迅速な行動をとるのに役立つ革新的なソリューションを構築するための基盤となります。 分散クラウド サービス、BIG-IP、NGINX からのテレメトリを組み合わせることで、比類のない洞察を提供し、リアルタイム レポートを生成し、アクションを自動化し、AI エージェントを強化します。
F5 は、自然言語インターフェースを使用して顧客が F5 ソリューションを操作および管理する方法を変える AI アシスタントもリリースします。 F5 AI Data Fabric を搭載した AI アシスタントは、データの視覚化、異常の特定、ポリシー構成のクエリと生成、修復手順の適用を行います。 また、組み込みのカスタマー サポート マネージャーとしても機能し、顧客が質問したり、製品ナレッジ ベース全体のモデル トレーニングに基づいて推奨事項を受け取ったりできるようになります。
F5 ソリューションは、データセンターからエッジまで AI ベースのアプリケーションを強化および保護することで、予測可能なパフォーマンスとセキュリティを実現する強力なツールを提供し、AI への投資から最大限の価値を引き出すことができます。