Recentemente, a F5 publicou um artigo de pesquisa no periódico Elsevier Network Security relacionado à análise empírica de várias estruturas de aprendizado de máquina (ML)/inteligência artificial (IA) para determinar o desempenho e a eficácia da execução de algoritmos de ML/IA de maneira distribuída. A pesquisa explora o uso de diferentes estruturas avançadas de ML/IA, como Morpheus da NVIDIA, ONNX, TF/SKL etc. para melhorar significativamente a segurança cibernética em larga escala. Isso resultou na aceleração dos recursos de detecção, obtidos por meio de formatação otimizada de modelos e processamento de carga de trabalho paralelo habilitado por GPU. A combinação de otimização de software e aceleração de hardware não apenas reduziu a latência, mas também aumentou o rendimento geral.
Selecionamos o problema de detecção de Domínios Gerados Algoritmicamente (AGDs) para comparar as diferentes estruturas de ML/IA (Morpheus da NVIDIA, ONNX, TF/SKL). Em geral, os invasores usam Algoritmos de Geração de Domínio (DGAs) para gerar AGDs para exfiltração de dados e comunicação de Comando e Controle (C&C) na camada DNS. Usamos os modelos de detecção de ameaças do DGA para testar várias estruturas de ML/IA.
Os modelos de ML/IA para detectar AGDs foram implantados e executados nas plataformas fornecidas com tamanhos de lote de 32 e 1024. As configurações de GPU superaram as configurações de CPU da implementação do TensorFlow em 11 vezes e 43 vezes com os tamanhos de lote fornecidos, respectivamente. Usando o formato do modelo ONNX, o provedor de execução da CPU teve um desempenho 5 vezes melhor que o da CPU TensorFlow para o tamanho de lote 32 e 1,5 vez melhor para o tamanho de lote 1024. O ONNX com provedor de execução de GPU CUDA superou o ONNX com provedor de execução de CPU em 6x e 13x para tamanhos de lote 32 e 1024, respectivamente. A GPU Morpheus superou outras arquiteturas, alcançando taxas de transferência de 22.382 req/seg e 208.077 req/seg para tamanhos de lote 32 e 1.024, respectivamente. Isso representa um aumento de 200 vezes na taxa de transferência quando comparado à configuração TensorFlow-GPU.
Em nossa análise, descobrimos que a Morpheus-GPU oferece latência e rendimento superiores, permitindo o uso de tamanhos de lote maiores para atender grandes redes. A detecção de DGA em tempo real no tráfego DNS em nível de data center é possível com Morpheus-GPU e cache.
Os principais aprendizados da pesquisa são:
As organizações podem utilizar essa pesquisa para implementar a segurança cibernética acelerada por IA selecionando uma infraestrutura robusta (combinação de unidades de processamento e estruturas de ML/IA) para processar dados em larga escala e obter resultados de inferência de maneira rápida e escalável. A pesquisa permite que as organizações implementem métodos usando os resultados validados relacionados às estruturas de ML/IA nas ofertas de produtos existentes, particularmente em áreas de ML/IA.
Obtenha sua cópia do artigo no portal online do Network Security Journal .