ブログ

F5 と Robust Intelligence が最先端の AI アプリケーション セキュリティで提携

アハメド・デソウキ サムネイル
アハメド・デソウキ
2024年8月6日公開

技術進化の最前線で、人工知能 (AI) はあらゆる業界のビジネス運営と顧客とのやり取りに革命をもたらしています。 しかし、組織が AI をコアプロセスにさらに深く統合するにつれて、AI 固有のセキュリティ脆弱性の脅威が大きく迫ってきます。 新たな安全とセキュリティのリスクは発生しており、今後も発生し続けるでしょう。

この新たな脅威の状況に対処するため、マルチクラウド アプリケーション セキュリティおよびネットワーク サービスのリーダーであるF5 は、AI セキュリティの先駆者であるRobust Intelligenceと協力し、安全な AI 対応の未来への道を切り開きました。 このパートナーシップにより、イノベーション、スピード、パフォーマンスを犠牲にすることなく、AI アプリケーションを自信を持って導入し、セキュリティを確保するために必要なツールが顧客に提供されます。

AI セキュリティの難問を理解する

AI の普及により、従来のセキュリティ フレームワークでは管理が困難な新しい種類の脅威が発生しています。 AI アプリケーションは、機械学習モデルを操作する敵対的攻撃や、AI 出力を歪める可能性のある微妙なプロンプト インジェクションなど、新しい形態の AI 脅威の悪用の影響を受けやすくなります。 これは、Web ページ上でプログラムされた出力を伴う想定される入力ではなくなりました。ユーザーは、あらゆる質問をしたり、あらゆるタスクの実行を要求したりできます。

図1: 生成 AI のリスク | GenAI ライフサイクル全体にわたるセキュリティと安全性のリスクを強調します。

大まかに言えば、AI アプリケーションは、安全性リスクとセキュリティ リスクという 2 つのカテゴリのリスクの影響を受けます。

安全上のリスクは通常、AI アプリケーションの予期しない結果や悪用です。 これらには、悪意のある目的での AI アプリケーションの再利用、アライメントの問題、偏ったまたは有害な出力、幻覚などが含まれます。

セキュリティ リスクとは、組織の機密データやコンピューティング リソースを危険にさらすリスクです。 サイバーセキュリティの 3 つの原則を反映して、AI セキュリティ リスクは機密性 (リソースは許可された当事者のみが利用可能)、整合性 (リソースの一貫性と正確性が維持される)、可用性 (リソースは許可された当事者のみがアクセス可能) に違反する可能性があります。

AI リスクが管理されていない場合、重大な経済的損害や評判の損失、訴訟、コンプライアンス違反、IP 漏洩などにつながる可能性があります。 AI アプリケーションがビジネス機能にますます不可欠なものになるにつれ、専門的なセキュリティ対策の必要性が高まっています。

AI アプリケーション セキュリティへの相乗的アプローチ

F5 と Robust Intelligence は、それぞれの分野で信頼されるリーダーとして、AI がもたらす特有の安全性とセキュリティの課題に対処するために提携しています。F5 の AI セキュリティ スイートと Robust Intelligence の最先端の AI ファイアウォールを統合することで、効率性と俊敏性を維持しながら、従来のアプリケーションと AI アプリケーションの両方をさまざまなリスクから保護するように設計された包括的なセキュリティ ソリューションが企業に提供されます。

図2: AI アプリケーション トラフィックを Robust Intelligence AI ファイアウォール経由でルーティングすることで、プロンプト インジェクション、データ抽出、サービス拒否などの攻撃をリアルタイムで識別して傍受できます。

F5 分散クラウド Web アプリケーションおよび API 保護 (WAAP)には、Web アプリケーション ファイアウォール (WAF)、ボット防御、DDoS 軽減、API 検出/セキュリティなど、幅広いセキュリティ ソリューションが含まれています。 これらのソリューションは、データ センターやクラウドからエッジまで、あらゆる環境のデジタル資産を保護することに役立ちます。

Robust Intelligence の AI ファイアウォールを F5 Distributed Cloud Services エコシステムに統合することで、セキュリティ体制がさらに強化され、AI エンタープライズ アプリケーションにリアルタイムの保護が提供されます。 AI ファイアウォールは、AI アプリケーションの入力と出力を即座に精査し、相互作用の正当性を判断します。 潜在的な脅威を識別してブロックし、AI モデルが安全なパラメータ内で動作し、悪意のある行為者によって操作されないようにします。

利点は次のとおりです:

  • AI システムを標的とした攻撃を軽減します。
  • モデル出力の安全性を確保します。
  • MITRENISTOWASP Top 10(Webアプリ、API、LLM)などの主要な標準への準拠を維持する
  • 既存のセキュリティおよび監視ツール (SIEM など) との統合。

Robust Intelligence のAI 検証をアルゴリズム レッド チームングに使用することを選択したお客様の場合、各モデルに固有のセキュリティと安全性の脆弱性に固有のガードレールを自動的に生成する機能によって AI ファイアウォール保護が強化され、開発から本番環境までセキュリティの範囲が拡張されます。

結論

AI がデジタルの世界とビジネスのやり方を変えるにつれて、セキュリティ リーダーは、リスクの新しいパラダイムに対応するために、組織戦略を積極的に再考する必要があります。 セキュリティはもはや、単に最新の状態を維持することだけではありません。

F5 と Robust Intelligence は、連携を通じて即時の保護だけでなく、AI の脅威の状況に合わせて進化する能力も提供します。 私たちは協力して、革新的なテクノロジーが安全でセキュリティが確保されているという安心感を持ちながら、組織が AI の変革の可能性を活用できるように支援します。

開始するには、 robustintelligence@f5.comに電子メールでお問い合わせください。

Robust Intelligence のプレスリリースを読むには、こちらをご覧ください。

Robust Intelligence + F5 Distributed Cloud Services のデモを見るには、 https://www.youtube.com/watch?v=nLt1uMz41AQをご覧ください。

F5 Distributed Cloud Services が組織に、あらゆる場所のあらゆるアプリケーションに対応するインフラストラクチャの構築にどのように役立つかについて詳しくは、 https://www.f5.com/cloudをご覧ください。