BLOG | ESCRITÓRIO DO DIRETOR DE TECNOLOGIA

IA generativa para modelagem de ameaças e resposta a incidentes

Caitlin Arnspiger Miniatura
Caitlin Arnspiger
Publicado em 07 de abril de 2025

Alguns anos atrás, a maioria de nós associava “IA generativa” a empreendimentos artísticos — pintar retratos surreais, compor música ou até mesmo escrever contos. Avançando para hoje, estamos vendo essas mesmas técnicas generativas se transformarem em ferramentas poderosas para a segurança cibernética. É um pouco irônico que a tecnologia usada para criar imagens excêntricas de gatos agora esteja nos ajudando a identificar vetores de ameaça sofisticada e a responder a incidentes do mundo real.

Mas essa convergência de IA generativa e segurança cibernética é apenas uma moda passageira? Ou estamos à beira de uma nova era na modelagem de ameaças e resposta a incidentes, uma que poderia reduzir drasticamente o tempo médio para detectar e mitigar ataques? Vou defender que a IA generativa está prestes a se tornar uma revolução tanto na identificação de novas ameaças quanto na orquestração de respostas eficientes baseadas em dados. No entanto, como qualquer tecnologia emergente, ela não está isenta de armadilhas. Vamos começar.

Tese: A capacidade única da IA generativa de sintetizar padrões, prever novos vetores de ataque e automatizar estratégias de resposta aumentará significativamente nossas capacidades de modelagem de ameaças e resposta a incidentes, mas somente se enfrentarmos os desafios em torno da confiabilidade, ética e governança de dados de frente.

As ameaças cibernéticas evoluem a uma velocidade vertiginosa, e os sistemas tradicionais baseados em regras ou assinaturas geralmente ficam para trás. Modelos generativos (como modelos avançados de grandes linguagens) podem detectar anomalias e levantar hipóteses sobre possíveis padrões de ataques futuros muito além do escopo da heurística convencional. No entanto, eles também introduzem novas vulnerabilidades, como a possibilidade de “alucinar” falsos positivos ou gerar inadvertidamente código malicioso. Devemos abordar essas capacidades com partes iguais de entusiasmo e cautela.

Modelagem de ameaças além de assinaturas conhecidas

Por que IA generativa para modelagem de ameaças?

Tradicionalmente, a modelagem de ameaças depende de assinaturas de ataque conhecidas, padrões históricos e conhecimento humano. Mas o aumento de malware polimórfico, vulnerabilidades na cadeia de suprimentos e explorações de dia zero tornam métodos puramente reativos inadequados.

Entra em cena a IA generativa. Embora “generativa” frequentemente implique grandes modelos de linguagem (LLMs) na linguagem atual, ela também pode incluir outros algoritmos capazes de produzir novos padrões de dados. Esses modelos detectam correlações sutis em grandes conjuntos de dados de telemetria — coisas como sequências de comando suspeitas, tentativas de movimento lateral ou padrões de exfiltração. É importante ressaltar que eles não se limitam a rótulos explícitos do que é “malicioso”. Em vez disso, eles aprendem a distribuição subjacente de comportamentos “normais” e podem sinalizar anomalias que não foram explicitamente listadas como ameaças.

No entanto, detectar anomalias é apenas o primeiro passo. Se ninguém rotulou certos comportamentos como maliciosos ou benignos, um LLM (ou qualquer abordagem generativa) pode precisar ser encadeado com classificadores adicionais ou verificações heurísticas para confirmar se algo é realmente nefasto ou apenas incomum. Por exemplo, pode-se levantar a hipótese de que um novo padrão de movimento lateral é suspeito, mas algumas organizações usam legitimamente um host de salto que raramente é acessado, tornando a anomalia inofensiva no contexto. Em última análise, a IA generativa se destaca em revelar possibilidades além das assinaturas convencionais, mas deve ser combinada com uma lógica de decisão robusta — automatizada ou conduzida por humanos — para determinar quais anomalias representam ameaças reais.

Um teste do mundo real: Ambiente sandbox F5

Na F5, executamos uma simulação controlada no final de 2024 para ver como um modelo de IA generativa poderia funcionar em um ambiente de ameaças em evolução. Alimentamos o ambiente de teste interno do F5 com dados de log anônimos de um ambiente multilocatário, injetando propositalmente novos padrões de ataque nunca antes vistos. Inicialmente, o modelo gerou alguns “alarmes falsos” (esses modelos podem ser muito ansiosos), mas com treinamento iterativo, ele começou a detectar anomalias com melhor precisão do que nosso sistema de base baseado em assinaturas. A parte realmente impressionante? Ele também sinalizou possíveis explorações que nem mesmo nossos analistas da equipe azul haviam considerado, como certas tentativas de movimentação lateral disfarçadas sob protocolos normais de compartilhamento de arquivos.

Encurtando o ‘tempo médio para remediar’

Manuais de resposta adaptativa

Os modelos generativos não servem apenas para detecção — eles podem rapidamente gerar playbooks sugeridos quando ocorrem incidentes. Pense nisso como um colaborador de IA que monitora registros em tempo real, mescla inteligência de diversas fontes de dados e propõe um plano de resposta coordenado.

Por exemplo, se o sistema detectar uma anomalia de alto risco, ele pode recomendar políticas dinâmicas de firewall ou colocar em quarentena máquinas virtuais (VMs) suspeitas. Como aprendem com incidentes passados, essas sugestões são refinadas com o tempo. Esse é um grande passo em relação aos runbooks estáticos que raramente são atualizados após a configuração inicial.

Orquestrando ferramentas em escala

Vimos uma onda recente de integrações de IA generativa em grandes conferências de segurança (como a Black Hat 2024 e a recém-lançada AI-SecOps Summit deste ano). Eles estão se concentrando em respostas "autônomas" ou "agentes", onde uma camada de IA orquestra diversas ferramentas de segurança — SIEMs, proteção de endpoint, WAFs — em tempo real. Se a multinuvem é a norma hoje em dia, um único modelo generativo que coordena respostas a ameaças em ambientes AWS, Azure e locais começa a parecer muito atraente.

Mas aqui está o problema: Se estivermos apenas automatizando processos desatualizados ou ineficientes, corremos o risco de “falhar mais rápido” em vez de melhorar nossa postura geral de segurança. Ao adotar a IA sem repensar os fluxos de trabalho fundamentais, podemos acelerar a execução de procedimentos falhos. É por isso que a IA deve ser vista como um catalisador para reimaginar como abordamos a segurança e a entrega , em vez de apenas acelerar o que já estamos fazendo.

Também vale a pena notar que só porque um modelo generativo pode automatizar uma resposta não significa que ele deva fazer isso. Precisamos de barreiras de proteção e caminhos de escalonamento para garantir que os humanos permaneçam informados sobre decisões críticas (como isolar segmentos inteiros da produção). Resumindo, a IA generativa apresenta uma oportunidade empolgante de desafiar suposições antigas e projetar estruturas de resposta a incidentes mais eficientes e adaptáveis, se estivermos dispostos a atualizar os fundamentos dos nossos processos, não apenas a velocidade.

Buzz atual em 2025

  • As guerras do LLM continuam: Os principais provedores de nuvem estão competindo para lançar o modelo de linguagem grande (LLM) mais “seguro”, cada um alegando ajuste fino avançado para reduzir alucinações e melhorar a conformidade.
  • Projetos de código aberto: Iniciativas conduzidas pela comunidade (como AI-SIGS ou ThreatGen ) estão surgindo, oferecendo aos pesquisadores de segurança estruturas de código aberto para criar modelos de ameaças generativos personalizados.
  • Destaque regulatório: As novas propostas de Regulamento de IA da UE colocam applications generativas de segurança cibernética sob tecnologia de “alto risco”, exigindo transparência e procedência explícita de dados.

É um momento inebriante: vemos mais adoção por grandes empresas e players de médio porte ansiosos para superar soluções legadas. Mas a pressa em implementar IA generativa pode levar a problemas se as organizações pularem etapas fundamentais, como governança de dados robusta, explicabilidade do modelo e estruturas de responsabilização.

Alucinações, privacidade e dilemas éticos

Embora os modelos generativos possam deslumbrar com inferências criativas, eles também podem “alucinar” ameaças que parecem plausíveis, mas que não existem. Uma onda de falsos positivos pode afundar sua equipe de operações de segurança em uma avalanche de alertas sem sentido. Com o tempo, isso pode minar a confiança em sistemas baseados em IA.

Treinar modelos robustos requer dados — muitos deles. Dependendo da região, as leis de privacidade podem restringir quais registros ou telemetria podem ser usados. Limpar ou tornar anônimos dados confidenciais do usuário é essencial para evitar problemas de conformidade e manter o uso ético dos dados.

Não podemos ignorar o outro lado mais sombrio: Os agentes de ameaças podem (e têm) usado IA generativa para redigir e-mails de phishing convincentes, desenvolver novas formas de malware ou descobrir ataques de dia zero mais rapidamente. À medida que desenvolvemos essas capacidades defensivas, devemos assumir que os atacantes estão fazendo o mesmo no ataque.

Abraçando o futuro

Olhando para o futuro, a IA generativa pode evoluir para uma camada padrão em todos os kits de ferramentas de SecOps , integrada tão firmemente quanto os scanners de vulnerabilidade ou sistemas de detecção de intrusão são hoje. Com melhorias na explicabilidade (pense em mais transparência sobre como a IA chega às suas conclusões), as equipes de segurança se sentirão mais confiantes em deixar a IA lidar com partes maiores do ciclo de vida da modelagem de ameaças.

Também poderemos ver coalizões globais de inteligência de ameaças , onde modelos generativos treinados em diferentes organizações compartilham insights parciais, mantendo a privacidade. Isso poderia levar a respostas mais rápidas e coordenadas a ataques de dia zero em todos os setores.

Ainda assim, vale a pena reiterar que estamos nos primeiros dias. As organizações devem investir em melhores práticas de dados, pipelines de treinamento robustos e governança bem definida antes de confiar em IA generativa em cenários de missão crítica.

Pronto para repensar a segurança?

A IA generativa tem o potencial de revolucionar abordagens tradicionais de modelagem de ameaças e resposta a incidentes. Ao analisar padrões criativamente e automatizar estratégias de resposta, ele pode oferecer velocidade e precisão inigualáveis, desde que enfrentemos desafios inerentes como alucinações, conformidade e salvaguardas éticas.