ブログ | CTO オフィス

F5 がサイバーセキュリティに関する調査結果を発表: ML/AI フレームワークのパフォーマンスと有効性

最近、F5 は、分散方式で ML/AI アルゴリズムを実行した場合のパフォーマンスと有効性を判断するためのさまざまな機械学習 (ML)/人工知能(AI)フレームワークの実証分析に関する研究論文を Elsevier Network Security ジャーナルに掲載しました。 この研究では、NVIDIA の Morpheus、ONNX、TF/SKL などのさまざまな ML/AI 高度フレームワークの使用を検討し、サイバー セキュリティを大規模に大幅に改善します。 これにより、最適化されたモデルフォーマットと GPU 対応の並列ワークロード処理を通じて検出機能が高速化されました。 ソフトウェアの最適化とハードウェア アクセラレーションの組み合わせにより、レイテンシが短縮されるだけでなく、全体的なスループットも向上しました。 

さまざまな ML/AI フレームワーク (NVIDIA の Morpheus、ONNX、TF/SKL) を比較するために、アルゴリズム生成ドメイン (AGD)を検出する問題を選択しました。 一般的に、攻撃者はドメイン生成アルゴリズム (DGA) を使用して、DNS レイヤーを介したデータ流出とコマンド アンド コントロール (C&C) 通信用の AGD を生成します。 DGA 脅威検出モデルを使用して、さまざまな ML/AI フレームワークをテストしました。

AGD を検出するための ML/AI モデルは、バッチ サイズ 32 および 1024 で指定されたプラットフォームに展開され、実行されました。 指定されたバッチ サイズでは、GPU 構成は TensorFlow 実装の CPU 構成よりもそれぞれ 11 倍と 43 倍優れたパフォーマンスを発揮しました。 ONNX モデル形式を使用すると、CPU 実行プロバイダーは、バッチ サイズ 32 では TensorFlow CPU よりも 5 倍、バッチ サイズ 1024 では 1.5 倍のパフォーマンスを発揮しました。 CUDA GPU 実行プロバイダーを使用した ONNX は、バッチ サイズ 32 と 1024 で、CPU 実行プロバイダーを使用した ONNX よりもそれぞれ 6 倍と 13 倍優れたパフォーマンスを発揮しました。 Morpheus-GPU は、バッチ サイズ 32 と 1024 でそれぞれ 22382 リクエスト/秒と 208077 リクエスト/秒のスループットを達成し、他のアーキテクチャよりも優れたパフォーマンスを発揮しました。 これは、TensorFlow-GPU 構成と比較した場合、スループットが 200 倍増加したことを意味します。

私たちの分析では、Morpheus-GPU は優れたレイテンシとスループットを提供し、大規模なネットワークにサービスを提供するためにより大きなバッチ サイズを使用できることがわかりました。 Morpheus-GPU とキャッシュを使用すると、データセンター レベルの DNS トラフィックでのリアルタイム DGA 検出が可能になります。

研究から得られた主な知見は次のとおりです。

  • サイバー攻撃や固有の脅威を回避するには、脅威インテリジェンスのために採掘されるべき保存されたデータセットの力を活用する成熟した脅威検出ソリューションが必要です。  
  • AI/ML アルゴリズムでは、サイバー攻撃や脅威をより適切に検出するために、大規模なデータを高速に学習およびトレーニングするためのハードウェア アクセラレーション (AI フレームワーク) が必要です。 
  • Morpheus AI フレームワークは、ONNX、TF などの他の ML/AI フレームワークと比較して、迅速な意思決定を可能にし、低レイテンシかつ高スループットでデータを処理する推論機能を提供します。 

組織はこの研究を活用して、堅牢なインフラストラクチャ(処理ユニットと ML/AI フレームワークの組み合わせ)を選択し、大規模なデータ処理を行って推論結果を高速かつスケーラブルに取得することで、AI 加速型サイバーセキュリティを実装できます。 この研究により、組織は、特に ML/AI の分野において、既存の製品提供における ML/AI フレームワークに関連する検証済みの結果を使用する方法を実装できるようになります。

論文のコピーは、Network Security Journal オンライン ポータルから入手できます。