生成AIベースのアプリケーションにおけるセキュリティ リスクと最適化の課題にバランスよく対処するためのアプローチをご紹介します。
生成AI(GenAI)は、既存のデータのパターンやサンプルから学習することで、テキスト、画像、音声などの新しいコンテンツを自律的に生成できます。深層学習モデルを活用し、人間の創造性と問題解決能力を模倣しながら、文脈に即した多様な出力を生成します。
個人や組織は、コンテンツ作成、自然言語処理、データ合成など、さまざまな用途やアプリケーションに生成AIを利用しています。コンテンツ作成では、詩、学術論文、マーケティング資料から、画像、動画、音楽、コンピュータ コードまで、あらゆるものの生成を支援します。自然言語処理の分野では、生成AIによってチャットボットと言語翻訳が強化され、膨大な量のデータの合成が可能になり、製品設計、開発、プロトタイピングの創造性を後押ししています。組織に生成AIアプリケーションを導入すると、より適切かつ十分な情報に基づいた意思決定や運用効率の向上に貢献して従業員をサポートし、収益性の向上とビジネスの成長につながります。
ただし生成AIはまた、バイアス、サイバー攻撃の強化、プライバシー リスクといった可能性を含め、セキュリティと倫理上の重大な懸念ももたらします。例えば、生成AIは、オンライン書籍、投稿、Webサイト、記事など、インターネットから体系的に収集したコンテンツから学習した大規模言語モデル(LLM)を使用できます。生成モデルは学習データから学ぶため、使用されるデータにバイアスがあると、モデルの出力にもそのバイアスが残り、さらにはそれを増幅させる可能性もあります。さらに生成AIは、誤解を招く情報や誤った情報を誤って生成し(ハルシネーションと呼ばれます)、誤った情報の拡散を引き起こす可能性があります。また攻撃者が生成AIを利用して、社会不安を引き起こしかねないプロパガンダを広めたり、操ったりすることもできます。今や生成AIは、ディープフェイク(誤解を招いたり、悪意を持って使用されたりする、リアルだが巧みに操作されたコンテンツ)を作成するために、攻撃者に頻繁に利用されています。ディープフェイクは、個人情報の盗難、ソーシャル エンジニアリング、フィッシング攻撃、虚偽情報の拡散、個人や社会に脅威をもたらす虚偽コンテンツの作成などに使用される可能性があります。ダークWeb市場では現在、スピアフィッシング メールの作成、検出不可能なマルウェアの作成、フィッシング ページの生成、脆弱なWebサイトの特定、さらにはハッキング技術のチュートリアルの提供にも使用できるFraudGPT AIツールが提供されています。
LLMの学習に使用されるコンテンツは、同意なしにアクセスされ、モデル学習に使用される可能性があり、個人情報、機密情報、著作権や所有権のあるコンテンツが含まれる可能性もあります。このような個人情報はすべて、AIがコンテンツを生成する際に抽出するコンテンツの一部であるため、その出力によって機密データや個人情報が誤って暴露されるという、非常に現実的なリスクがあります。
生成AIベンダーは、個人や組織に対し、EUの一般データ保護規則(GPDR)などの政府規制の「忘れられる権利」または「消去の権利」の指令に基づく、それぞれの個人情報や専有情報が学習目的で保存または使用されているかどうかを確認し、こうした情報の削除を要求する手段を提供していない場合があります。またLLM学習では、さまざまな地域や国からデータを集約し、利用することがよくあります。これは、データ主権規制に違反する可能性のあるシナリオにつながる場合があります。
生成AIは組織や業界のさまざまな用途に使用されており、生成AIを適切なワークフローに賢く組み込めば、競争上の優位性を企業にもたらすことができます。こうした用途には、次のようなものがあります。
生成AIのセキュリティとは、生成AIベースのアプリケーションの開発、導入、使用に関連する潜在的なセキュリティ リスクと課題に対処するために実装される、一連の実践と対策を指します。これらのテクノロジがより普及し、高度化するのに伴い、特にAIワークロードがサイバー犯罪者にとって格好の攻撃対象となっているため、セキュリティに関する懸念が重要さを増しています。生成AIアプリケーションの導入と管理に伴うセキュリティ リスクの詳細な検証については、「大規模言語モデル アプリケーションのOWASP Top 10」をご覧ください。こちらは、脆弱性に対する意識を高め、修復方法を提案し、LLMアプリケーションのセキュリティ体制を改善することを目的としています。
生成AIは非常に強力で、まるで魔法のように見えるかもしれませんが、従来のワークロードと同じインフラストラクチャ、インターフェイス、ソフトウェア コンポーネントの一部を利用しているため、インジェクション攻撃や、脆弱な認証・認可制御を回避する攻撃など、同じリスクを抱えています。高度な生成AIモデルを効果的に運用するには、信頼性とパフォーマンスに優れた、安全なインフラストラクチャが必要です。
またインフラストラクチャ攻撃には、攻撃者がCPU、メモリ、ストレージなどのハードウェア リソースを過負荷にして生成AIワークロードの実行を妨害するサービス拒否(DoS)攻撃も含まれます。こうしたリソース枯渇攻撃は、パフォーマンスの低下やシステムの不安定化を引き起こし、AIシステムの可用性と信頼性を低減して、モデルの学習能力やユーザー プロンプトへの応答能力を損なう可能性があります。
AIシステム インフラストラクチャへの不正アクセスも、生成AIワークフローにとって重大な脅威であり、システムの機密性と整合性に悪影響を与えかねません。システム インフラストラクチャに侵入されれば、データの盗難、サービスの中断、悪質なコードの挿入といった悪質な活動につながる可能性があり、これは、AIモデルとデータのセキュリティを危険にさらすだけでなく、不正確な出力や有害な出力の生成と拡散につながります。
生成AIアプリケーションの出発点は、機械学習モデルが目的のパターンを認識し、予測し、タスクを実行するために使用する学習データです。LLMが高度な機能を発揮するには、学習されるデータが広範で多様なドメイン、ジャンル、ソースから取得されている必要があります。ただし、モデル学習プロセスは、既製の事前学習済みモデルを使用する場合でも、カスタム データセットで学習したカスタムメイドのモデルを使用する場合でも、操作や攻撃に対して脆弱です。
敵対的攻撃とは、攻撃者が入力データを意図的に操作して生成AIモデルを誤った方向に導いたり、そのパフォーマンスを侵害したりすることで、OWASPはこのプロセスを学習データ ポイズニングと呼んでいます。これには、モデルのセキュリティ、有効性、倫理的行動を損なう可能性のある、脆弱性、バックドア、バイアスを導入するためのデータ操作も含まれます。またこれらの脆弱性によって攻撃ベクトルが生じ、攻撃者が機密情報への不正アクセスに悪用する可能性があります。モデルのサプライ チェーンが侵害されると、出力にバイアスがかかったり、信頼性が低下したり、プライバシーの侵害や不正なコードの実行などが行われたリする可能性があります。生成AIアプリケーションは膨大なプラグイン エコシステムを利用しているため、この点は特に懸念されます。
生成AIアプリケーションは、学習データセット、ニューラル ネットワーク、深層学習アーキテクチャに基づいて出力を生成するLLMを利用して、ユーザーからのプロンプトに対する応答を生成します。AIモデルは、既存データ内のパターン、構造、関係を特定するための基盤として機能し、その理解に基づいて新しい出力を生成します。
AIモデルは、さまざまな攻撃の影響を受けやすく、これには、これまでの命令を無視したり、意図しないアクションを実行させたりするように入念に作成されたプロンプトを入力することでLLMを操作するプロンプト インジェクションなどの入力攻撃も含まれます。AIモデルが誤った情報や偽のコンテンツを生成する最も一般的な原因の1つがプロンプト インジェクションです。また、生成AIアプリケーションは、攻撃者が意図しないリクエストを実行したり、制限されたリソースにアクセスしたりすることを可能にするServer-Side Request Forgery(SSRF)や、基盤となるシステム上でアプリケーションに悪質なコードやその他のアクションを実行させるリモート コード実行(RCE)といった脆弱性の影響も受けやすいと言えます。
生成AIシステムを保護するには、多層的なセキュリティ アプローチが求められます。これには、許可された担当者のみがシステムの重要なコンポーネントにアクセスできるようにする厳格なアクセス制御など、堅牢な認証・認可プロトコルが必要です。侵入の試みを早期に検知して防止するには、定期的なソフトウェア更新や継続的な監視を含むプロアクティブな脆弱性管理を実施します。DoS攻撃に対抗するには、バックアップ サーバやフェールセーフ手順の使用など、システムに冗長性を持たせて、永続的な処理の可用性を確保します。ユーザー プロンプトがトークンを生成し、LLMには固定コンテキスト ウィンドウがあるため、LLMもサービス拒否の対象となる可能性があり、これはシステム リソースを枯渇させる試みの対象となることを意味します。
組織は、学習データのサプライ チェーンを検証し、信頼できるソースから事前学習されたモデルのみを選択するために、厳格な審査プロセスを実装する必要があります。低品質のデータや学習データのバイアスは、正確な表現を学習して信頼性の高い出力を生み出すモデルの能力を妨げる可能性があるため、効果的な生成AIを確立するには、生成モデルに提供する前にデータを前処理することが不可欠です。規制の厳しい多くの業界では、モデルの微調整も重要です。データのクリーニング、正規化と拡張、バイアスの検知と緩和といった技術は、エラーやデータ ポイズニングの防止に役立ちます。
潜在的なセキュリティ脅威から生成AIモデルを保護するには、ネットワーク分離や適切なファイアウォール構成などを含む、堅牢なアクセス制御、暗号化方式、安全な導入方法を実装します。プロンプト インジェクションを防ぐには、悪意を持って作成された入力でモデルが操作されないように、プロンプト サニタイズ、入力検証、プロンプト フィルタリングなどの手法を採用します。不正なコード実行のリスクは、安全なコーディング手法を採用し、徹底したコード レビューを実施し、コード サンドボックスなどの実行時防御策を利用することで軽減できます。プロンプト インジェクションは、生成AIアプリケーションの最も深刻かつ複雑なリスクの1つです。
生成AIの処理はリソースを大量に消費する可能性があるため、パフォーマンスと効率を高めるには、生成AIモデルを最適化することが、モデルの速度、拡張性、エネルギー効率を高める重要なステップとなります。
マルチクラウド環境は、分散環境間でAIワークロードとエコシステム プラグインを接続できるため、AIを活用したアプリケーションの基盤となっています。マルチクラウド ネットワーキング(MCN)は、グラフィック プロセッシング ユニット(GPU)などのハードウェア アクセラレータを含む生成AIワークロードのコンピューティング ニーズに基づいてリソースを動的にスケールアップまたはスケールダウンする柔軟性を提供し、さまざまなクラウド プロバイダのリソースをデータ処理に統合してパフォーマンスを最適化し、遅延を最小限に抑えます。生成AIモデルを複数のクラウド リージョンに導入すると、処理の地理的な分散、遅延の削減、応答時間の短縮が可能になります。これは、分散型のリアルタイムまたはインタラクティブAIアプリケーションにとって特に重要です。エッジAIは、ユーザー エクスペリエンスを向上させる極めて有益な方法として台頭しています。また生成AIモデルを地域的に分散することで、組織はデータ主権要件に準拠してデータを保存、処理することができます。
コンテナ オーケストレーション プラットフォームであるKubernetesは、生成AIワークロードを実行するための事実上の標準であり、コンテナ内でAIモデルを実行、拡張するためのインフラストラクチャを提供し、可用性と効率性に優れたリソース利用を可能にします。Kubernetesはオーケストレータとして機能し、AIアプリケーション内のさまざまなコンポーネントの導入と監視を管理して、AIモデル、データ処理パイプライン、その他のサービスを効率的に管理、拡張できるようにします。Kubernetesにはさまざまな実装があり、ワークロードを均等にプロビジョニングして、トラフィックを安全に誘導し、推論を分散処理する必要があるため、MCNとIngressコントローラは非常に重要です。
APIは、AIアプリケーションのさまざまな部分にデータと命令を交換するための結合組織を提供して、さまざまなコンポーネントとサービスが相互に通信できるようにします。例えば、生成AIのプラグイン エコシステムはAPI呼び出しを介して接続されます。Kubernetes Ingressソリューションは、組み込みのロード バランシング、レート制限、アクセス制御機能を提供し、トラフィックを複数のポッドに安全に分散して、AIワークロード全体の処理パフォーマンスを向上させます。
生成AIの最適化において、出力速度と品質のバランスをとることは、多くの場合、トレードオフの関係にあります。出力の品質を高めるには通常、より複雑でリソースを大量に消費するモデルとコンピューティングが必要ですが、その一方で、パフォーマンスを最適化するにはモデルを簡素化する必要があり、これは生成されたコンテンツの品質に影響します。モデルが複雑であるほど、学習時間が長くかかり、推論が遅くなり、学習プロセスとリアルタイム アプリケーションのパフォーマンスの両方の速度に影響します。これは特に、動的環境に適応する必要がある生成AIモデルにおいて問題となり、継続的な最適化を必要とし、品質とパフォーマンスのバランスを維持する上で課題となります。GPUに加え、一般的な中央処理装置(CPU)やデータ処理装置(DPU)もタスクの処理に使用できるため、インテリジェンス トラフィック管理とリソース プーリングの重要性をさらに際立たせています。
生成AIモデルを最適化するには、複数の要素をバランスよく考慮し、組み合わせる必要があります。
モデル プルーニングは、パフォーマンスを維持しながらよりコンパクトなモデルを作成することを目指して、モデルのサイズとコンピューティング要件を削減するために、冗長なパラメータや比較的重要でないパラメータを特定してモデルから削除します。量子化は、浮動小数点数をより精度の低い固定小数点や整数表現に変換するなど、より低いビット精度で数値を表現することで、生成AIモデルのメモリ要件とコンピューティングの複雑さを軽減します。これにより、メモリ要件が軽減され、モデルの展開と保存の効率が向上します。
転移学習は、あるタスクについて学習したモデルを別の関連タスクの実行に適応させる機械学習方法で、特に深く複雑なモデルの場合、学習に必要な時間とコンピューティング リソースを大幅に削減します。転移学習は知識の効率的な再利用を進め、大規模なコンピューティング リソースを必要とせずに特定のアプリケーション向けの生成AIモデルの最適化を可能にします。
複数のプロセッサ、デバイス、クラウドにモデルの学習と推論を分散し、並列処理機能を活用することで、モデルの学習とユーザー エクスペリエンスが最適化されます。さらに、ハードウェアの個々の能力(実行される特定のCPUやGPUなど)を活用するようにモデル アーキテクチャと学習プロセスをカスタマイズすると、特に推論をユーザーの近くで実行できる場合、学習と推論のプロセスを最適化してパフォーマンスを向上させることができます。
生成AIは競争上の大きな優位性をもたらす可能性を秘めていますが、組織がリスクなくそのメリットを最大限に活用するには、多様な分散環境間でAIワークロードを最適化して保護するために必要な措置を講じる必要があります。これには、AIワークロードの効率を高めるだけでなく、複雑なKubernetesエコシステムの管理、APIのシームレスかつ安全な統合、マルチクラウド ネットワークの効果的な管理も必要です。
F5は、最新のAIワークロードのパフォーマンスとセキュリティを最適化し、データ センタ、パブリック クラウド、プライベート クラウド、マルチクラウド、ネイティブKubernetes、エッジを含む分散アプリケーション環境全体にわたって、生成AIモデルとデータの一貫した分散と保護を保証します。F5は、大規模な生成AIモデルの学習、改良、導入、管理をサポートする、基盤となる統合データ ファブリックを提供して、シームレスなユーザー エクスペリエンスを確保し、AI主導型アプリケーションでのリアルタイムの意思決定をサポートします。
F5は、セキュリティ、デリバリ、パフォーマンスの最適化を統合したソリューション スイートを提供しています。このソリューションは、単一の画面で一元的な可視性と管理性を確保し、生成AIの複雑性を軽減しながら、予測どおりのスケールとパフォーマンスを実現します。
F5のテクノロジは、効率を最適化し、遅延を削減し、応答時間を短縮することで、シームレスなユーザー エクスペリエンスを確保しながら、どこにでもAIワークロードを導入できる柔軟性をサポートし、企業が安全かつ確実に生成AIのメリットを活かすことができるよう支援します。
ソリューションの概要
F5を使用してAIワークロードを分散、最適化、保護する ›
ソリューション
AIの取り組みの強化と保護 ›