BLOG | OFICINA DEL CTO

Investigación sobre ciberseguridad publicada por F5: Rendimiento y eficacia de los marcos de aprendizaje automático/inteligencia artificial

Publicado el 12 de junio de 2023

Recientemente, F5 publicó un artículo de investigación en la revista Elsevier Network Security relacionado con el análisis empírico de varios marcos de aprendizaje automático (ML) / inteligencia artificial (IA) para determinar el rendimiento y la eficacia de la ejecución de algoritmos ML/IA de manera distribuida. La investigación explora el uso de diferentes marcos avanzados de ML/AI como Morpheus de NVIDIA, ONNX, TF/SKL, etc. para mejorar significativamente la ciberseguridad a gran escala. Esto ha dado como resultado una aceleración de las capacidades de detección, lograda mediante un formato de modelo optimizado y un procesamiento de carga de trabajo paralelo habilitado por GPU. La combinación de optimización de software y aceleración de hardware no solo ha reducido la latencia sino que también ha aumentado el rendimiento general. 

Seleccionamos el problema de detectar dominios generados algorítmicamente (AGD) para comparar los diferentes marcos de ML/AI (Morpheus de NVIDIA, ONNX, TF/SKL). En general, los atacantes utilizan algoritmos de generación de dominios (DGA) para generar AGD para la exfiltración de datos y la comunicación de comando y control (C&C) a través de la capa DNS. Utilizamos los modelos de detección de amenazas DGA para probar varios marcos ML/AI.

Los modelos ML/AI para detectar AGD se implementaron y ejecutaron en las plataformas dadas con tamaños de lote de 32 y 1024. Las configuraciones de GPU superaron las configuraciones de CPU de la implementación de TensorFlow en 11 y 43 veces con los tamaños de lote dados respectivamente. Usando el formato del modelo ONNX, el proveedor de ejecución de CPU tuvo un desempeño 5 veces mejor que el de TensorFlow CPU para un tamaño de lote de 32 y 1,5 veces mejor para un tamaño de lote de 1024. El proveedor de ejecución de GPU ONNX con CUDA superó al proveedor de ejecución de CPU ONNX por 6x y 13x para tamaños de lote de 32 y 1024, respectivamente. Morpheus-GPU superó a otras arquitecturas y logró rendimientos de 22382 solicitudes/seg y 208077 solicitudes/seg para tamaños de lote de 32 y 1024, respectivamente. Esto representa un aumento de 200 veces en el rendimiento en comparación con la configuración TensorFlow-GPU.

En nuestro análisis, descubrimos que Morpheus-GPU ofrece una latencia y un rendimiento superiores, lo que permite el uso de lotes de mayor tamaño para atender redes grandes. La detección de DGA en tiempo real en el tráfico DNS a nivel de centro de datos es posible con Morpheus-GPU y almacenamiento en caché.

Los aprendizajes clave de la investigación son:

  • Para evitar los ciberataques y las amenazas inherentes se necesitan soluciones de detección de amenazas maduras que utilicen el poder de los conjuntos de datos almacenados que deben analizarse para obtener inteligencia sobre amenazas.  
  • Los algoritmos de IA/ML requieren aceleración de hardware (marcos de IA) para aprender y entrenar datos a gran escala rápidamente para una mejor detección de ciberataques y amenazas. 
  • El marco de inteligencia artificial Morpheus permite una toma de decisiones rápida y proporciona capacidades de inferencia para procesar datos con baja latencia y alto rendimiento en comparación con otros marcos de ML/IA como ONNX, TF, etc. 

Las organizaciones pueden utilizar esta investigación para implementar ciberseguridad acelerada por IA seleccionando una infraestructura robusta (combinación de unidades de procesamiento y marcos de ML/IA) para procesar datos a gran escala y obtener resultados de inferencia de manera rápida y escalable. La investigación permite a las organizaciones implementar métodos que utilizan los resultados validados relacionados con los marcos de ML/IA en las ofertas de productos existentes, particularmente en áreas de ML/IA.

Obtenga su copia del artículo en el portal en línea de Network Security Journal