セキュリティ リスクと最適化の課題を調査して、生成 AI ベースのアプリケーションに対するバランスの取れたアプローチを準備します。
生成 AI (または GenAI) は、既存のデータ内のパターンや例から学習することで、テキスト、画像、音声などの新しいコンテンツを自律的に生成できます。 ディープラーニング モデルを活用して、多様で状況に適した出力を生成し、人間の創造性と問題解決能力を模倣します。
個人や組織は、コンテンツ作成、自然言語処理、データ合成など、さまざまな用途やアプリケーションに生成 AI を活用しています。 コンテンツ作成では、詩、学術論文、マーケティング資料から、画像、ビデオ、音楽、コンピュータ コードまで、あらゆるものの生成に役立ちます。 自然言語処理の分野では、生成 AI によってチャットボットや言語翻訳が強化され、膨大な量のデータの統合が可能になり、製品の設計、開発、プロトタイピングにおける創造性が刺激されます。 組織内に GenAI アプリケーションを導入すると、より優れた情報に基づいた意思決定と運用効率の向上に貢献し、人間の労働者をサポートして、収益性とビジネスの成長を高めることができます。
しかし、生成 AI は、偏見の可能性、サイバー攻撃の強化、プライバシーのリスクなど、セキュリティと倫理に関する重大な懸念ももたらします。 たとえば、生成 AI は、オンライン書籍、投稿、Web サイト、記事など、インターネットから体系的に収集されたコンテンツからトレーニングされた大規模言語モデル (LLM) を使用できます。 生成モデルはトレーニング データから学習しますが、使用されるデータに偏りがある場合、モデルは出力内の既存の偏りを永続化したり、増幅したりする可能性があります。 さらに、生成 AI は誤って誤解を招くような情報や誤った情報 (幻覚と呼ばれる) を生成し、誤った情報が広がる可能性があります。 悪意のある人物が GenAI を利用して、社会不安につながるプロパガンダを拡散したり調整したりすることもできます。 生成 AI は現在、悪意のある人物によって、誤解を招いたり悪意のある可能性のあるリアルだが操作されたコンテンツであるディープフェイクを作成するためによく利用されています。 ディープフェイクは、個人情報の盗難、ソーシャルエンジニアリングやフィッシング攻撃、虚偽の情報の拡散、個人や社会に脅威を与える欺瞞的なコンテンツの作成に使用される可能性があります。 ダークウェブ マーケットでは現在、スピアフィッシング メールの作成、検出不可能なマルウェアの作成、フィッシング ページの生成、脆弱な Web サイトの特定、さらにはハッキング手法に関するチュートリアルの提供に使用できる FraudGPT AI ツールが提供されています。
LLM のトレーニングに使用されるコンテンツには、同意なしにアクセスされ、モデルのトレーニングに使用される可能性があり、個人情報や機密情報、著作権で保護されたコンテンツや独占所有コンテンツも含まれている可能性があります。 この個人情報はすべて、AI がコンテンツを生成する際に利用するコンテンツの一部であるため、出力によって機密データや個人情報が誤って公開されるという非常に現実的なリスクがあります。
生成 AI ベンダーは、EU の一般データ保護規則 (GPDR) などの政府規制による「忘れられる権利」または「消去権」指令に基づき、個人または組織が自分の個人情報または専有情報がトレーニング目的で保存または使用されているかどうかを確認する方法、またはこの情報の削除を要求する方法を提供しない場合があります。 LLM トレーニングでは、さまざまな地域や国からのデータを集約して活用することもよくあります。 これにより、データ主権規制に違反する可能性のあるシナリオが発生する可能性があります。
Generative AI は組織や業界にさまざまな用途があり、適切なワークフローに GenAI を慎重に組み込むことで、企業は競争上の優位性を獲得できます。 これらのアプリケーションには次のものが含まれます。
GenAI セキュリティは、GenAI ベースのアプリケーションの開発、展開、使用に関連する潜在的なセキュリティ リスクと課題に対処するために実装される一連のプラクティスと対策です。 これらのテクノロジーが普及し、高度化するにつれて、特に AI ワークロードがサイバー犯罪者にとって主要な攻撃対象となっているため、セキュリティに関する懸念はますます重要になります。 GenAI アプリケーションの導入と管理に伴うセキュリティ リスクを詳しく調べるには、大規模言語モデル アプリケーションの OWASP Top 10 を確認してください。これは、脆弱性に対する認識を高め、修復戦略を提案し、LLM アプリケーションのセキュリティ体制を改善することを目的としています。
GenAI は非常に強力で、まるで魔法のように見えるかもしれませんが、従来のワークロードと同じインフラストラクチャ、インターフェース、ソフトウェア コンポーネントの一部を活用しているため、インジェクション攻撃や、弱い認証および承認制御を回避する攻撃など、同じリスクを共有しています。 高度な生成 AI モデルを効果的に運用するには、信頼性が高く、高性能で安全なインフラストラクチャが必要です。
インフラストラクチャ攻撃には、攻撃者が CPU、メモリ、ストレージなどのハードウェア リソースを圧倒して、生成 AI ワークロードの実行を妨害するサービス拒否 (DoS)も含まれます。 これらのリソース枯渇攻撃は、パフォーマンスの低下やシステムの不安定化につながり、AI システムの可用性と信頼性に影響を与え、モデルが学習してユーザーのプロンプトに応答する能力を損なう可能性があります。
AI システム インフラストラクチャへの不正アクセスも GenAI ワークフローにとって重大な脅威であり、システムの機密性と整合性に影響を及ぼす可能性があります。 システム インフラストラクチャへの侵入は、データの盗難、サービスの中断、悪意のあるコードの挿入などの悪意のあるアクティビティにつながる可能性があります。 これにより、AI モデルとデータのセキュリティが危険にさらされるだけでなく、不正確または有害な出力が生成され、拡散する可能性もあります。
あらゆる GenAI アプリケーションの出発点は、機械学習モデルが目的のパターンを認識し、予測を行い、タスクを実行するために使用するトレーニング データです。 LLM が優れた能力を発揮するには、トレーニングに使用するデータが、幅広い多様なドメイン、ジャンル、ソースにまたがる必要があります。 ただし、モデルのトレーニング プロセスは、既製の事前トレーニング済みモデルを使用する場合でも、カスタム データセットでトレーニングされた特注モデルを使用する場合でも、操作や攻撃に対して脆弱です。
敵対的攻撃では、悪意のある人物が意図的に入力データを操作して、生成 AI モデルのパフォーマンスを誤らせたり損なったりします。このプロセスは、OWASP ではトレーニング データ ポイズニングとして識別されます。 また、モデルのセキュリティ、有効性、または倫理的な動作を損なう可能性のある脆弱性、バックドア、またはバイアスを導入するためのデータ操作も含まれます。 これらの脆弱性により、悪意のある人物が機密情報に不正にアクセスするために悪用できる攻撃ベクトルも導入されます。 モデルサプライチェーンが侵害されると、偏った出力や信頼性の低い出力、プライバシー侵害、不正なコードの実行が発生する可能性があります。 GenAI アプリケーションは広大なプラグイン エコシステムを採用しているため、これは特に懸念事項です。
GenAI アプリケーションは、トレーニング データセット、ニューラル ネットワーク、およびディープラーニング アーキテクチャに基づいて出力を生成する LLM を採用し、ユーザーからのプロンプトに対する応答を生成します。 AI モデルは、既存のデータ内のパターン、構造、関係を識別するための基盤として機能し、その理解に基づいて新しい出力を生成します。
AI モデルは、プロンプト インジェクションや、モデルが以前の指示を無視したり、意図しないアクションを実行したりするように巧妙に作成されたプロンプトを入力して LLM を操作するその他の入力の脅威など、さまざまな攻撃の影響を受けます。 プロンプトインジェクションは、AI モデルによって生成される誤情報や偽コンテンツの最も一般的な原因の 1 つです。 GenAI アプリケーションは、攻撃者が意図しないリクエストを実行したり、制限されたリソースにアクセスしたりできるサーバー側リクエストフォージェリ (SSRF)や、アプリケーションが基盤となるシステム上で悪意のあるコードやその他のアクションを実行できるリモートコード実行 (RCE)などの脆弱性の影響を受けやすいです。
GenAI システムを保護するには、セキュリティに対する多層的なアプローチが必要です。 これには、許可された担当者のみがシステムの重要なコンポーネントにアクセスできるようにするための厳格なアクセス制御を含む、強力な認証および承認プロトコルが必要です。 侵入の試みを早期に検出して防止するために、定期的なソフトウェア更新と継続的な監視を含むプロアクティブな脆弱性管理を実装します。 DoS 攻撃に対抗するには、バックアップ サーバーやフェイルセーフ プロトコルの使用など、システムに冗長性を組み込み、永続的な処理の可用性を確保します。 LLM も、ユーザー プロンプトによってトークンが生成され、固定コンテキスト ウィンドウがあるため、システム リソースを使い果たす目的で攻撃の標的となる可能性があり、サービス拒否攻撃の対象となる可能性があります。
組織は、トレーニング データのサプライ チェーンを検証し、信頼できるソースからの事前トレーニング済みモデルのみを選択するための厳格な審査プロセスを実装する必要があります。 トレーニング データの品質が悪い場合や、トレーニング データに偏りがある場合、モデルが正確な表現を学習して信頼性の高い結果を生成する能力が妨げられる可能性があるため、データを生成モデルに取り込む前に前処理することが、効果的な GenAI にとって重要です。モデルの微調整も、多くの規制産業では不可欠です。 データのクリーニング、正規化と拡張、バイアスの検出と軽減などの手法は、エラーやデータ汚染を防ぐのに役立ちます。
強力なアクセス制御、暗号化方法、安全なデプロイメント プラクティス (ネットワーク分離や適切なファイアウォール構成を含む) を実装して、生成 AI モデルを潜在的なセキュリティ脅威から保護します。 プロンプト インジェクションを防ぐには、プロンプトのサニタイズ、入力の検証、プロンプトのフィルタリングなどの手法を使用して、悪意を持って作成された入力によってモデルが操作されないようにします。 安全なコーディング手法を採用し、徹底したコードレビューを実施し、コードサンドボックスなどのランタイム防御を活用することで、不正なコード実行のリスクを軽減できます。 プロンプト インジェクションは、GenAI アプリケーションの最も深刻で複雑なリスクの 1 つです。
GenAI 処理はリソースを大量に消費する可能性があるため、パフォーマンスと効率を向上させるために生成 AI モデルを最適化することは、モデルをより高速でスケーラブルかつエネルギー効率の高いものにするための重要なステップです。
マルチクラウド環境は、分散環境全体で AI ワークロードとエコシステム プラグインを接続できるため、AI を活用したアプリケーションの基盤となっています。 マルチクラウド ネットワーキング(MCN) は、グラフィカル プロセッシング ユニット (GPU) などのハードウェア アクセラレータを含む生成 AI ワークロードの計算需要に基づいてリソースを動的にスケールアップまたはスケールダウンする柔軟性を提供し、さまざまなクラウド プロバイダーのリソースをデータ処理に統合してパフォーマンスを最適化し、遅延を最小限に抑えます。 GenAI モデルを複数のクラウド リージョンに展開すると、処理の地理的分散、レイテンシの短縮、応答時間の改善が可能になります。これは、分散型リアルタイムまたはインタラクティブ AI アプリケーションにとって特に重要です。 エッジ AI は、ユーザー エクスペリエンスを向上させる貴重な方法として登場しています。 GenAI モデルを地域別に分散することで、組織はデータ主権の要件に準拠してデータを保存および処理することもできます。
コンテナ オーケストレーション プラットフォームKubernetes は、 GenAI ワークロードを実行するための事実上の標準であり、コンテナ内で AI モデルを実行および拡張するためのインフラストラクチャを提供し、高可用性と効率的なリソース使用を保証します。 Kubernetes はオーケストレーターとして機能し、AI アプリケーション内のさまざまなコンポーネントの展開と監視を管理し、AI モデル、データ処理パイプライン、その他のサービスを効率的に管理および拡張できるようにします。 MCN および Ingress コントローラは、Kubernetes のさまざまな実装と、ワークロードを均一にプロビジョニングし、トラフィックを安全に誘導して推論を分散する必要性から、非常に重要です。
API は、 AI アプリケーションのさまざまな部分がデータや命令を交換するための結合組織を提供し、さまざまなコンポーネントやサービスが相互に通信できるようにします。 たとえば、GenAI プラグイン エコシステムは API 呼び出しを介して接続されます。 Kubernetes Ingress ソリューションは、組み込みの負荷分散、レート制限、アクセス制御機能を提供し、トラフィックを複数のポッドに安全に分散して、AI ワークロードの全体的な処理パフォーマンスを向上させます。
出力速度と品質のバランスをとるには、多くの場合、GenAI の最適化とのトレードオフが必要になります。 高品質の出力を実現するには、通常、より複雑でリソースを大量に消費するモデルと計算が必要であり、パフォーマンスを最適化するには、生成されるコンテンツの品質に影響を与える可能性のあるモデルの簡素化が必要になる場合があります。 より複雑なモデルでは、トレーニング時間が長くなり、推論が遅くなる可能性があり、トレーニング プロセスの速度とリアルタイム アプリケーションのパフォーマンスの両方に影響します。 これは、動的な環境に適応する必要がある GenAI モデルにとって特に問題であり、継続的な最適化が必要になり、品質とパフォーマンスのバランスを維持するのに課題が生じる可能性があります。 GPU に加えて、一般的な中央処理装置 (CPU) とデータ処理装置 (DPU) もタスクの処理に使用できるため、インテリジェンス トラフィック管理とリソース プーリングの重要性が強調されます。
生成 AI モデルを最適化するには、複数の要素をバランスよく考慮し、組み合わせる必要があります。
モデルのプルーニングでは、モデルから冗長なパラメータや重要度の低いパラメータを識別して削除し、モデルのサイズと計算要件を削減して、パフォーマンスを維持しながらよりコンパクトなモデルを作成することを目的としています。 量子化は、浮動小数点数を低精度の固定小数点数または整数表現に変換するなど、数値を低いビット精度で表現することにより、GenAI モデルのメモリ要件と計算の複雑さを軽減します。 これにより、メモリ要件が低減し、モデルの展開と保存の効率が向上します。
転移学習は、あるタスクでトレーニングされたモデルを別の関連タスクの実行に適応させる機械学習手法であり、特に深く複雑なモデルのトレーニングに必要な時間と計算リソースを大幅に削減します。 転移学習は知識の効率的な再利用を促進し、膨大な計算リソースを必要とせずに特定のアプリケーション向けの生成 AI モデルの最適化を可能にします。
モデルのトレーニングと推論を複数のプロセッサ、デバイス、またはクラウドに分散すると、並列処理機能を活用してモデルのトレーニングとユーザー エクスペリエンスが最適化されます。 さらに、ハードウェアの個々の機能 (たとえば、実行される特定の CPU または GPU) を活用するようにモデル アーキテクチャとトレーニング プロセスをカスタマイズすると、トレーニングと推論のプロセスを最適化してパフォーマンスを向上させることができます (特に、ユーザーの近くで推論を実行できる場合)。
生成 AI は大きな競争上の優位性をもたらす可能性がありますが、組織がリスクなしでそのメリットを最大限に活用するには、多様な分散環境全体で AI ワークロードを最適化し、保護するために必要な手順を実行する必要があります。 これには、AI ワークロードの効率を高めるだけでなく、複雑な Kubernetes エコシステムの管理、シームレスで安全な API の統合、マルチクラウド ネットワークの効果的な管理も必要です。
F5 は、最新の AI ワークロードのパフォーマンスとセキュリティを最適化し、データセンター、パブリック クラウド、プライベート クラウド、マルチクラウド、ネイティブ Kubernetes、エッジを含む分散アプリケーション環境全体にわたって、生成 AI モデルとデータの一貫した分散と保護を保証します。 F5 は、大規模な生成 AI モデルのトレーニング、改良、展開、管理をサポートする基盤となる統合データ ファブリックを提供し、シームレスなユーザー エクスペリエンスを保証し、AI 駆動型アプリケーションでのリアルタイムの意思決定をサポートします。
F5 は、セキュリティ、配信、パフォーマンス最適化の統合ソリューション スイートを提供し、生成 AI の複雑さを軽減しながら、予測可能なスケールとパフォーマンスを提供し、単一の画面で一元的な可視性と管理を実現します。
F5 のテクノロジーは、効率を最適化し、遅延を減らし、応答時間を改善することで、組織が安全かつ確実に生成 AI のメリットを享受できるように支援するとともに、シームレスなユーザー エクスペリエンスを確保し、AI ワークロードをどこにでも展開できる柔軟性をサポートします。
ソリューションの概要
F5 で AI ワークロードを分散、最適化、保護 ›
ソリューション
AI の旅を強化および保護 ›