BLOG | ESCRITÓRIO DO DIRETOR DE TECNOLOGIA

Pesquisa de segurança cibernética publicada pela F5: Desempenho e eficácia em estruturas de ML/IA

Publicado em 12 de junho de 2023

Recentemente, a F5 publicou um artigo de pesquisa no periódico Elsevier Network Security relacionado à análise empírica de várias estruturas de aprendizado de máquina (ML)/inteligência artificial (IA) para determinar o desempenho e a eficácia da execução de algoritmos de ML/IA de maneira distribuída. A pesquisa explora o uso de diferentes estruturas avançadas de ML/IA, como Morpheus da NVIDIA, ONNX, TF/SKL etc. para melhorar significativamente a segurança cibernética em larga escala. Isso resultou na aceleração dos recursos de detecção, obtidos por meio de formatação otimizada de modelos e processamento de carga de trabalho paralelo habilitado por GPU. A combinação de otimização de software e aceleração de hardware não apenas reduziu a latência, mas também aumentou o rendimento geral. 

Selecionamos o problema de detecção de Domínios Gerados Algoritmicamente (AGDs) para comparar as diferentes estruturas de ML/IA (Morpheus da NVIDIA, ONNX, TF/SKL). Em geral, os invasores usam Algoritmos de Geração de Domínio (DGAs) para gerar AGDs para exfiltração de dados e comunicação de Comando e Controle (C&C) na camada DNS. Usamos os modelos de detecção de ameaças do DGA para testar várias estruturas de ML/IA.

Os modelos de ML/IA para detectar AGDs foram implantados e executados nas plataformas fornecidas com tamanhos de lote de 32 e 1024. As configurações de GPU superaram as configurações de CPU da implementação do TensorFlow em 11 vezes e 43 vezes com os tamanhos de lote fornecidos, respectivamente. Usando o formato do modelo ONNX, o provedor de execução da CPU teve um desempenho 5 vezes melhor que o da CPU TensorFlow para o tamanho de lote 32 e 1,5 vez melhor para o tamanho de lote 1024. O ONNX com provedor de execução de GPU CUDA superou o ONNX com provedor de execução de CPU em 6x e 13x para tamanhos de lote 32 e 1024, respectivamente. A GPU Morpheus superou outras arquiteturas, alcançando taxas de transferência de 22.382 req/seg e 208.077 req/seg para tamanhos de lote 32 e 1.024, respectivamente. Isso representa um aumento de 200 vezes na taxa de transferência quando comparado à configuração TensorFlow-GPU.

Em nossa análise, descobrimos que a Morpheus-GPU oferece latência e rendimento superiores, permitindo o uso de tamanhos de lote maiores para atender grandes redes. A detecção de DGA em tempo real no tráfego DNS em nível de data center é possível com Morpheus-GPU e cache.

Os principais aprendizados da pesquisa são:

  • Contornar ataques cibernéticos e ameaças inerentes requer soluções maduras de detecção de ameaças que utilizem o poder de conjuntos de dados armazenados que devem ser explorados para obter inteligência sobre ameaças.  
  • Os algoritmos de IA/ML exigem aceleração de hardware (estruturas de IA) para aprender e treinar dados em larga escala rapidamente para melhor detecção de ataques cibernéticos e ameaças. 
  • A estrutura Morpheus AI permite uma tomada de decisão rápida e fornece recursos de inferência para processar dados com baixa latência e alto rendimento em comparação com outras estruturas de ML/IA, como ONNX, TF, etc. 

As organizações podem utilizar essa pesquisa para implementar a segurança cibernética acelerada por IA selecionando uma infraestrutura robusta (combinação de unidades de processamento e estruturas de ML/IA) para processar dados em larga escala e obter resultados de inferência de maneira rápida e escalável. A pesquisa permite que as organizações implementem métodos usando os resultados validados relacionados às estruturas de ML/IA nas ofertas de produtos existentes, particularmente em áreas de ML/IA.

Obtenha sua cópia do artigo no portal online do Network Security Journal