エッジAIは、エッジ コンピューティング環境への人工知能アルゴリズムやモデルの導入を表したもので、エッジ サイトとクラウド間の連続的な通信ストリームを一部軽減するために、意思決定が行われる場所の近くに計算処理能力とインテリジェンスを配置します。エッジAIによって、ネットワークの周辺部にあるデバイスはデータをローカルに処理でき、処理をインターネット接続や一元的なクラウド サーバに依存することなく、リアルタイムの意思決定が可能になり、計算処理速度が向上し、データのプライバシーとセキュリティが強化されます。
エッジAIは、人工知能、モノのインターネット(IoT)、エッジ コンピューティング、組み込みシステムなどの複数のテクノロジの集合体であり、ネットワークのエッジでインテリジェントな処理と意思決定を可能にする上でそれぞれが重要な役割を果たします。エッジAIは、組み込みのアルゴリズムを使用してリモート システムの活動を監視するだけでなく、非構造化データ(温度、言語、顔、動き、画像、近接性、その他のアナログ入力情報)のセンサーやその他のトラッカーといったデバイスが収集したデータを処理します。
これらのリモート システムには、センサー、スマートフォン、IoTデバイス、ドローン、カメラ、さらには車両やスマート家電など、さまざまな形態があります。こうしたシステムから収集されたデータは、エッジAIアルゴリズムの入力データとして使用され、システムやその環境の状態に関する有用な情報を提供します。エッジAIシステムはこの情報を使用して変化や異常に速やかに対応し、それらの運用環境を認識します。これらのエッジAIアプリケーションを中央管理型のクラウド環境や企業データ センタ環境で運用することは、コスト、遅延、帯域幅、セキュリティ、プライバシーに関連する問題から非現実的であり、不可能でしょう。
エッジAIには、以下のような広範なユース ケースがあります。
AIアルゴリズムやモデルの主な導入手法には、エッジとクラウドの2つがあります。クラウドとエッジ サイトにまたがるシステムを統合する手法は「クラウドイン」または「エッジアウト」と呼ばれ、いずれもパフォーマンス、セキュリティ、運用に影響を及ぼします。
エッジAIでは、リモート デバイスにAIを展開してネットワーク エッジや分散環境でのリアルタイム処理と意思決定を可能にします。これらのシステムではネットワーク接続を使用したりデータを中央のサーバに送信したりすることなく、ローカルでデータを大規模に分析することができるため、遅延と応答時間が短縮されます。また、エッジAIシステムでは機密データがローカルに保存されるため、クラウドにデータを送信することに伴うプライバシー侵害やセキュリティのリスクが軽減されます。
エッジAIの例としては、ローカルに展開されたAIを使用してセンサー データを分析し、リアルタイムで運転を判断する自律走行車や、エッジAIを使用して音声コマンドを処理したり敷地内への侵入者を監視したりするスマート ホーム デバイスなどがあります。
一方、クラウドAIは、AIアルゴリズムやモデルを中央のクラウド サーバに展開して大規模なデータ処理や、学習、推論を行うことを特徴としています。大半のコンピューティング機能はクラウド リソースから提供され、膨大な計算処理能力が必要なディープ ラーニング学習やビッグ データ解析などの複雑なAIタスクを行います。クラウドAIソリューションは、大量のデータやユーザーに合わせて簡単にスケーリングでき、高いスループットが必要な用途やリソースを大量に消費する用途に適しています。
広範なユーザー データに基づいて新製品や代替製品の選択肢を消費者に提供するためにAmazonやNetflixで使用されているレコメンド エンジンは、機能を最適化するために大量の計算リソースを必要とする大規模クラウドAIシステムの一例です。
他に、特定の顧客ニーズを満たすためにエッジAIとクラウドAIの両方を利用するAIユース ケースもあります。実際の例として、シンガポールを拠点とするAI・データ プラットフォーム プロバイダSentient.ioがあります。同社は、企業がAIを既存のワークフローに簡単に統合できる、革新的AIサービスのハブSentient Marketplaceを開発しました。このマーケットプレースは急速な成功を収めましたが、同社はオンプレミス、パブリック クラウド、プライベート クラウド、エッジなど、分散した環境でAIサービスを運用して展開することの難しさも含め、いくつかの複雑な課題に直面しました。
顧客サイトで複数のプロバイダにわたってクラウドプロバイダ ソリューションを運用する場合、それぞれのソリューションが独自のKubernetesディストリビューションを提供することがあり、これがプラットフォームを各クラウド環境で使用する組織にとって大きな問題となりました。また、SentientのAIモデルを顧客サイトに展開するプロセスも煩雑で、エッジ サイトごとにオンプレミスのKubernetes環境を設定し、新しいモデルの更新と同期を手動で行う必要がありました。そのため、運用は複雑化し、ワークフローのオーケストレーションやセキュリティ ポリシーの一貫性が損なわれました。
そこでSentient.ioはF5と連携し、オンプレミス、クラウド、エッジの各拠点への導入を簡素化する、エンタープライズ対応のKubernetesプラットフォーム、F5 Distributed Cloud App Stackを使用して、すぐに使えるエンタープライズグレードのAIを「アズ ア サービス」ソリューションとしてさまざまな業種の顧客に提供しました。このソリューションは、Sentientの運用を合理化し、遅延を短縮してエッジでのリアルタイムAI処理を可能にしました。エッジで推論を提供することで、地理的な場所に起因するネットワークと帯域幅の制約が解消され、リアルタイムでただちにアプリケーションに推論が提供されます。このモデル導入の転換により、Sentient.ioは価値実現までの時間を短縮しながら、顧客に高いパフォーマンスのAIアプリケーションを提供し、リソースの割り当てを最適化して、運用コスト全体を引き下げ、アプリケーションとAPIセキュリティをネイティブに統合することができました。
またこの連携により、複数のクラウド プラットフォームを手動で管理していた従来のプロセスに比べて、コストを大幅に削減できました。従来のプロセスには専任チームが必要で、かなりのリソース コストがかかっていたのです。F5 Distributed Cloud ServicesによってSentientは運用を簡素化することができ、リソースを最適化してアプリケーション管理を簡素化することでコスト削減に成功し、他の戦略的イニシアティブを強化するためのリソースを確保することができました。
エッジAIへのアクセスでは、デバイス、テクノロジ、インフラストラクチャ コンポーネント、統合を組み合わせて導入し、ネットワーク エッジにあるAI機能に効率よくアクセスして利用できるようにする必要があります。これには以下が含まれます。
また、エッジAIを導入し、これにアクセスする上で、以下の課題と制約があることも考慮してください。
エッジAIの導入でデータを保護し、セキュリティ リスクを緩和するには、セキュリティへの多層的手法を重視した総合的なアプローチが必要です。エッジAIは、データから学習し、経験に基づいて行動を進化させる能力など、重要な点で従来のコンピューティング ワークロードとは異なりますが、セキュリティ要件という点では従来のIoTシステムと多くの共通点があり、次のような多くのリスクを共有しています。
エッジAIアプリケーションなど、LLMをベースとしたAIシステムの導入と管理に伴うセキュリティ リスクの詳細な検討については、「大規模言語モデル アプリケーションのOWASP Top 10」をご覧ください。こちらは、脆弱性に対する意識を高め、修復方法を提案し、LLMアプリケーションのセキュリティ体制を改善することを目的としています。
ネットワーク エッジなどの遠隔地に配置されるという性質上、パフォーマンス、リソース利用率、セキュリティ、その他を考慮しながらエッジAIインフラストラクチャを最適化することが重要になります。ただし、リソースに制約のあるデバイスの効率とパフォーマンスを最適化することは、難しい場合があります。これは、計算処理能力やメモリ、エネルギーなどの要件を最小限に抑えることと、満足できるパフォーマンスを維持することが、多くの場合、トレードオフの関係にあるためです。
エネルギー消費を抑えながらエッジの計算処理性能を最適化する方法はいくつかあります。低電力モード、スリープ状態、動的電源電圧周波数制御(DVFS)などの省エネ技術を導入することで、エネルギー消費を抑えることができます。GPUやDPUなどのハードウェア アクセラレータは、CPUから計算処理負荷の高いタスクをオフロードして、推論速度を引き上げます。動的バッチング、適応推論、スパース モデリングなどの技術を活用して、パフォーマンスを維持しながらリソース利用率を最適化します。負荷の低いタスクはCPUが処理する可能性があり、分散性の高いアーキテクチャではリソース プーリングの重要性が浮き彫りなります。
エッジAIデバイスでは計算リソースが限られていることが多く、エッジ デバイスに最適化された軽量AIモデルを導入する必要があります。つまり、デバイス リソースやアプリケーション要件に最適なモデルを選ぶ際に、モデルの複雑さ、精度、推論速度の間でバランスをとらなければなりません。モデルの量子化、プルーニング、知識蒸留といった技術は、パフォーマンスを大きく低下させることなくAIモデルのサイズを小さくするのに役立ちます。
「境界の消失(Dissolving Perimeter)」とは、モバイル デバイスやクラウド、エッジ コンピューティングなどの要素によって従来のネットワーク境界が曖昧になりつつあることを指します。エッジAIにおいて、境界の消失とは、リモート環境や動的ネットワーク環境のネットワーク エッジに通常配置されているエッジAIデバイスが、データ センタやクラウド環境の外側で、そして従来の境界ベースのセキュリティ対策(ファイアウォール、侵入検知システムなど)の外側で運用されることを意味します。その結果、エッジAIセキュリティは、特殊な要件を持つようになり、セキュリティ管理と可視性の確保が難しい、隔離された場所や複雑な分散環境で、不正アクセスといった脅威から保護できるよう最適化しなければなりません。
また、APIは、AIアプリケーションのさまざまな部分にデータや命令を交換するための結合組織を提供します。このAPI接続とこれを通過するデータの保護は、AI対応アプリケーションを導入する企業が必ず直面する重要なセキュリティ課題であり、エンドポイントを動的に検知してさまざまなリスクから自動的に保護する、WebアプリケーションとAPIの保護サービスの導入が不可欠です。
LMMは、膨大な文字データをベースとした人工知能モデルであり、学習することで、自然言語を理解し、人間のように流暢で一貫した、優れた自然言語を生成します。生成AIアプリケーションの中核であるLLMは通常、インターネットから体系的に収集された入力データやコンテンツ(オンライン書籍や投稿、Webサイト、記事など)を学習します。しかし、この入力データが攻撃者の攻撃にさらされます。攻撃者は入力データを意図的に操作して、生成AIモデルを誤った方向に導いたり、パフォーマンスを侵害したりすることで、脆弱性、バイアス、生成される情報の信頼性の低下、プライバシー侵害、不正コードの実行などを引き起こします。
LLMで上位に挙げられるセキュリティ リスクは次のとおりです。
こうしたセキュリティ上の課題に対処するには、悪意をもって細工された入力でモデルが操作されないよう、プロンプト インジェクションを防止し、プロンプトのサニタイズ、入力検証、プロンプト フィルタリングなどの手法を組み込んだ、多面的なアプローチが必要です。DoS攻撃に対抗するには、レート制限、異常検知、行動分析を含む多層的な防御戦略を立てて、疑わしい、悪意あるネットワーク活動を検知して特定します。これらのリスクを効果的に管理するために、業界は進化し続けており、アプリケーション スタックにおけるLLMプロキシ、ファイアウォール、ゲートウェイ、安全なミドルウェアの開発が急速に進められています。
エッジAIは、急速に進化するネットワーク エッジのテクノロジの一部であり、インテリジェントで応答性に優れ、より高効率のコンピューティング環境の新時代を切り拓こうとしています。プロセッサ、ネットワーク、ソフトウェア、セキュリティの進化の接点にあるこうしたテクノロジは、あらゆる業界にわたりイノベーションと変革の新たな可能性を引き出しています。これらのエッジ コンピューティングのユース ケースでは、ネットワーク エッジにおけるリアルタイム分析と意思決定が活用され、組織は、データをそのソースに近い場所で処理して分析し、遅延の影響を受けやすいアプリケーションの応答時間を短縮して、リアルタイムでコンテンツを確実に提供しています。
また、ネットワーク エッジにコンピューティング リソースを分散することで、変化するワークロード ニーズに迅速に対応してリソースの利用率を最適化し、システムのパフォーマンスと効率全体を改善することもできます。こうした可能性に貢献しているのが、エッジ コンピューティング インフラストラクチャの専用コンポーネントの進化であり、その例として、エッジ サーバ、エッジ コンピューティング プラットフォームとライブラリ、そして、エッジAIアプリケーションをサポートするために必要な計算処理能力、ストレージ、ネットワーク リソースを提供するAIオンチップ プロセッサがあります。
エッジAIは、ネットワーク エッジにおけるインフラストラクチャの再興を推進する上で重要な役割を担い、AIとIoTの統合はエッジにおけるインテリジェントな意思決定を牽引し続け、医療、産業オートメーション、ロボット工学、スマート インフラストラクチャなどの革新的な用途を推し進めています。
TinyMLは、マイクロコントローラやエッジAIデバイスなど、リソースに制約のあるエッジ デバイスへの導入に向けて最適化された、軽量ソフトウェアMLモデルとアルゴリズムの構築に照準を合わせたML・AI技術へのアプローチです。TinyMLベースのアルゴリズムは、エネルギー効率に優れ、クラウド リソースを利用しなくても推論タスクをローカルで実行できるよう設計されています。
さらに、DPUなどのコンパクトで強力なプロセッサは、CPUからデータ処理タスクをオフロードして加速するよう設計された特殊なハードウェア コンポーネントであり、パフォーマンスと拡張性を高めるために大量のデータを効率的に処理することが不可欠であるエッジ コンピューティングやAI/MLのワークロードで使用されることが増えています。エネルギーを大量に消費するGPUソリューションの使用が電力面の制約によって制限されかねないエッジ コンピューティング環境では、この効率性が特に価値を発揮します。
エッジからクラウド、そしてデータ センタへと連続した環境でこれらのイノベーションをつなげることが、ハイブリッド、マルチクラウド、エッジ コンピューティングのリソースを含む分散アーキテクチャ全体でシームレスなデータ処理、分析、可観測性を可能にする新世代のネットワーク ソリューションです。こうしたネットワークは、エッジ コンピューティング プラットフォームの重要なコンポーネントであるAPIへの依存度をますます高めるでしょう。それは、APIが通信、統合、自動化を容易にし、分散コンピューティング環境内でシームレスなデータ交換と同期を可能にするためです。またAPIは、標準化されたインターフェイスを提供して、多様なエッジ デバイス、システム、サービス間の相互運用性を実現することで、エッジのリソースやサービスの動的なプロビジョニング、管理、制御も可能にします。
これらの多岐にわたる分散アーキテクチャでは、データ ソースの近くにあるエッジ デバイスから、データ センタにある中央または分散クラウド サーバまで、この連続した環境の複数のポイントでデータを安全に処理して分析することができます。このエッジからあらゆる場所まで連続した環境により、組織は複数のコンピューティング環境が持つ強みを安全に活用し、従来のワークロードとAIワークロードを統合して、最新のアプリケーションの多様な要件を満たすことができます。
F5は、ネットワーク エッジのAPIアプリケーションを含む、連続的な分散環境内のどの場所でも、あらゆるアプリケーションとAPIを保護し、提供して、最適化する唯一のソリューション プロバイダです。AIベースのアプリケーションはモダン アプリケーションの中でも最先端のものであり、LLMリスクや分散推論など、GenAIを採用したシステムに特有の考慮事項があると同時に、遅延、サービス拒否攻撃、ソフトウェア脆弱性、ボットや悪意ある自動化を使用した攻撃者による悪用などの標的でもあります。
AI主導の新しいデジタル エクスペリエンスは高度に分散され、データ ソース、モデル、サービスがオンプレミス、クラウド、エッジ環境全体に混在し、これらすべてが拡大し続けるAPIネットワークで接続されているため、深刻なセキュリティの課題を生み出しています。これらのAPI接続とそれを通過するデータの保護は、企業がAI対応サービスをさらに導入する際に直面する重大なセキュリティ課題です。
F5 Distributed Cloud Servicesは、業界で最も包括的なAI対応APIセキュリティ ソリューションであり、AIを利用した巧妙な脅威に対抗するためのAPIコード テスト機能とテレメトリ分析機能を備え、マルチクラウドとエッジのアプリケーション環境の保護と管理を容易にします。F5のマルチクラウド ネットワーキング ソリューションは、トラフィックの最適化を伴うSaaSベースのネットワーキングと、パブリック クラウド、プライベート クラウド、エッジへの導入が可能なセキュリティ サービスを1つのコンソールで提供し、クラウド依存サービスや複数のサードパーティ ベンダーの管理負担を軽減します。F5のネットワーク ソリューションなら、AI導入を加速させ、エンドツーエンドでポリシーを管理し、完全自動化対応で信頼性の高いインフラストラクチャの可観測性を確保できます。
また、新たに登場したF5 AI Data Fabricは、顧客がより多くの情報に基づいて意思決定を行い、迅速にアクションを行うのに役立つ革新的なソリューションを構築するための基盤です。Distributed Cloud Services、BIG-IP、NGINXのテレメトリを組み合わせることで、比類のないインサイトを提供し、リアルタイムでレポートを生成し、アクションを自動化して、AIエージェントを強化することができます。
またF5がリリースするAIアシスタントにより、顧客が自然言語インターフェイスでF5ソリューションと対話して管理する方法が変わります。F5 AI Data Fabricを搭載したAIアシスタントは、データを可視化して異常を検知し、ポリシー設定を照会して生成し、修復手順を適用します。また、AIアシスタントは、組み込みの顧客サポート マネージャーとしても機能し、顧客が質問すると、製品のナレッジベース全体を学習したモデルに基づいた提案が返されます。
データ センタからエッジまで、AIベースのアプリケーションを強化し、保護することにより、F5ソリューションは、予測どおりのパフォーマンスとセキュリティを発揮する強力なツールを提供し、お客様はAI投資から最大限の価値を得ることができます。