Com novas tecnologias, é fácil se empolgar. Todos vão lembrar da sensação quando fizeram seu primeiro prompt em um modelo de linguagem grande (LLM), da primeira vez que usaram um navegador, dessa ideia maluca de que seus dados vivem na "nuvem". Mas a cada nova inovação, existe uma equipe dedicada de profissionais de segurança determinada a garantir que todos possam usar essas tecnologias com segurança. É comum focarmos nas manchetes e nas possibilidades futuras — que a IA certamente traz muitas — mas, ao definir o papel da F5 na segurança da IA, decidimos dar um passo atrás e perguntar: como a comunidade de segurança encara a IA?
Como somos obcecados por nossos clientes aqui na F5, analisamos todos os comentários relacionados à IA do ano passado (julho de 2024 a junho de 2025) dos principais usuários da maior comunidade de profissionais de segurança da Internet, o r/cybersecurity do Reddit . Classificamos cada comentário e usuário em categorias de sentimentos e extraímos pontos problemáticos expressos ou subjacentes para cada um.
48% dos profissionais estão otimistas e já usam essa tecnologia em suas estruturas, enquanto o restante ainda é cético ou tem receio do que o futuro reserva.
Metade dos comentários de SecOps mostraram otimismo quanto à IA. Eles utilizam ferramentas com IA em suas stacks, automatizam tarefas repetitivas e usam assistentes de IA para priorizar alertas.
A outra metade dos comentários foi dividida entre o receio, ligado ao desafio de proteger sistemas de IA, e a dúvida de que a IA avançará muito além do que já alcançou.
A proteção de dados é a maior preocupação manifestada por profissionais de segurança nos comentários do r/cybersecurity no Reddit, seguida pela observabilidade/detecção de anomalias e ataques impulsionados por IA.
A tensão entre a demanda de dados da IA e os princípios fundamentais da segurança cibernética colocou a segurança de dados no centro das discussões. Em 2025, essa foi a maior preocupação dos profissionais de segurança e só ganhou força à medida que as empresas aceleraram a adoção da IA.
O maior desafio nesse setor é a shadow AI, ou as interações não autorizadas dos usuários com sistemas de IA. Mesmo que uma organização esteja no início ou já avançada na adoção da IA, esse problema persiste independentemente do grau de maturidade da tecnologia.
Segurança de dados domina a conversa, mas observabilidade e detecção de anomalias são as principais preocupações de IA em SecOps. Enquanto fornecedores afirmam o que a IA pode fazer para apoiar fluxos de trabalho de segurança, você demonstra a necessidade de equilíbrio: “Agentes de segurança de IA têm limitações, e sempre deve haver um humano envolvido.” Um analista compartilhou a experiência de usar IA para automatizar a triagem L1 de alertas EDR, reduzindo o MTTT de 45 minutos para menos de dois, mas destacou: “Isso só foi possível com regras claras, regras claras e mais regras claras.” O pedido é unânime: garanta visibilidade e rastreabilidade contínuas nas interações com IA, automatize o trabalho repetitivo e mantenha os julgamentos estratégicos sob responsabilidade humana.
Esta não é uma ameaça teórica, é um multiplicador de força que eleva o patamar para os oportunistas e amplia os limites para agentes de ameaça sofisticados. Na prática, discutimos essas mudanças de duas maneiras: novas técnicas adversárias de IA, como injeção de prompts ou ataques de jailbreak direcionados a sistemas de IA, e uma democratização maliciosa dos ataques de engenharia social, como phishing e deepfakes. As preocupações sobre esse último fenômeno cresceram à medida que modelos e agentes passam a integrar mais ferramentas e dados.
Outros 12% das dificuldades destacaram o comportamento do modelo e a qualidade da saída como riscos à segurança. As maiores preocupações envolveram alucinações, falhas de precisão e resultados prejudiciais, mas a principal delas foi a escalada de privilégios—com a IA acessando dados ou executando tarefas sem ter permissão para isso. É nesse ponto que vemos o SecOps buscar salvaguardas práticas: moderação de conteúdo adaptada ao risco do negócio, alinhamento das políticas e permissões claras para modelos e agentes.
Nas entrelinhas, e às vezes claramente expressas, as equipes de segurança esperam que os fornecedores alcancem um padrão mais elevado:
Dê prioridade à proteção de dados, ajuste a segurança para enfrentar ameaças adversárias emergentes, consolide a observabilidade em todas as interações e planeje tendo a governança responsável de IA como base. Vamos continuar a compartilhar insights de testes práticos, publicar orientações úteis para que as equipes de segurança possam aplicar e manter total transparência sobre como minimizamos riscos.
Lembrando do comentário no Reddit sobre IA segura OU eficaz, estamos ansiosos para transformar esse “ou” em um “e.”
Atendemos ao chamado; esta é a nossa resposta.