BLOG | BÜRO DES CTO

Von F5 veröffentlichte Forschungsergebnisse zur Cybersicherheit: Leistung und Effektivität von ML/AI-Frameworks

Veröffentlicht am 12. Juni 2023

Kürzlich veröffentlichte F5 im Elsevier Network Security Journal einen Forschungsartikel zur empirischen Analyse verschiedener Frameworks für maschinelles Lernen (ML)/ Künstliche Intelligenz (KI), um die Leistung und Effektivität der verteilten Ausführung von ML-/KI-Algorithmen zu bestimmen. Die Forschung untersucht die Verwendung verschiedener fortschrittlicher ML/AI-Frameworks wie NVIDIAs Morpheus, ONNX, TF/SKL usw., um die Cybersicherheit im großen Maßstab deutlich zu verbessern. Dies hat zu einer Beschleunigung der Erkennungsfunktionen geführt, die durch eine optimierte Modellformatierung und eine GPU-gestützte parallele Arbeitslastverarbeitung erreicht wurde. Die Kombination aus Softwareoptimierung und Hardwarebeschleunigung hat nicht nur die Latenz reduziert, sondern auch den Gesamtdurchsatz erhöht. 

Wir haben das Problem der Erkennung algorithmisch generierter Domänen (AGDs) ausgewählt, um die verschiedenen ML/AI-Frameworks (NVIDIA Morpheus, ONNX, TF/SKL) zu vergleichen. Im Allgemeinen verwenden die Angreifer Domain Generation Algorithms (DGAs), um AGDs für die Datenexfiltration und Command and Control (C&C)-Kommunikation über die DNS-Schicht zu generieren. Wir haben die DGA-Bedrohungserkennungsmodelle verwendet, um verschiedene ML/AI-Frameworks zu testen.

Die ML/AI-Modelle zur Erkennung von AGDs wurden auf den angegebenen Plattformen mit Batchgrößen von 32 und 1024 bereitgestellt und ausgeführt. Die GPU-Konfigurationen übertrafen die CPU-Konfigurationen der TensorFlow-Implementierung bei den angegebenen Batch-Größen um das 11- bzw. 43-fache. Unter Verwendung des ONNX-Modellformats zeigte der CPU-Ausführungsanbieter bei der Batchgröße 32 eine fünfmal bessere Leistung als die TensorFlow-CPU und bei der Batchgröße 1024 eine 1,5-mal bessere Leistung. ONNX mit CUDA GPU-Ausführungsprovider übertraf ONNX mit CPU-Ausführungsprovider bei den Batchgrößen 32 bzw. 1024 um das 6- bzw. 13-Fache. Morpheus-GPU übertraf andere Architekturen und erreichte Durchsätze von 22382 Anf./Sek. und 208077 Anf./Sek. bei Batchgrößen von 32 bzw. 1024. Dies entspricht einer 200-fachen Durchsatzsteigerung im Vergleich zur TensorFlow-GPU-Konfiguration.

Bei unserer Analyse haben wir festgestellt, dass Morpheus-GPU eine höhere Latenz und einen höheren Durchsatz bietet und so die Verwendung größerer Batchgrößen zur Bereitstellung großer Netzwerke ermöglicht. Mit Morpheus-GPU und Caching ist eine DGA-Erkennung in Echtzeit für DNS-Verkehr auf Rechenzentrumsebene möglich.

Die wichtigsten Erkenntnisse aus der Forschung sind:

  • Um Cyberangriffe und inhärente Bedrohungen zu umgehen, sind ausgereifte Lösungen zur Bedrohungserkennung erforderlich, die die Leistungsfähigkeit gespeicherter Datensätze nutzen, die zur Ermittlung von Bedrohungsinformationen ausgewertet werden sollten.  
  • KI-/ML-Algorithmen erfordern Hardwarebeschleunigung (KI-Frameworks), um große Datenmengen schnell zu lernen und zu trainieren und so Cyberangriffe und Bedrohungen besser zu erkennen. 
  • Das Morpheus-KI-Framework ermöglicht schnelle Entscheidungsfindung und bietet Inferenzfunktionen zur Verarbeitung von Daten mit geringer Latenz und hohem Durchsatz im Vergleich zu anderen ML/KI-Frameworks wie ONNX, TF usw. 

Organisationen können diese Forschung nutzen, um KI-beschleunigte Cybersicherheit zu implementieren, indem sie eine robuste Infrastruktur (Kombination aus Verarbeitungseinheiten und ML/KI-Frameworks) auswählen, um Daten im großen Maßstab zu verarbeiten und so schnell und skalierbar Inferenzergebnisse zu erhalten. Die Forschung ermöglicht es Organisationen, Methoden unter Verwendung der validierten Ergebnisse im Zusammenhang mit ML/AI-Frameworks in den bestehenden Produktangeboten zu implementieren, insbesondere in den Bereichen ML/AI.

Holen Sie sich Ihr Exemplar des Artikels über das Online-Portal des Network Security Journal