BLOG

Enfrentando os desafios do RAG com o ecossistema F5 e Red Hat

Miniatura de Frank Strobel
Frank Strobel
Publicado em 24 de abril de 2025

A promessa da Generative AI de aumento de produtividade e fortalecimento empresarial capturou a atenção de líderes empresariais de muitos setores: De acordo com o Relatório de Estratégia de Application F5 2025 , praticamente todos os entrevistados (99%) relataram se sentir confortáveis ​​usando IA não apenas para dar suporte à tomada de decisões, mas para automatizar pelo menos uma função operacional.

“Organizações em todos os lugares estão em uma jornada acelerada para implantar IA generativa e outras tecnologias emergentes para transformar a maneira como trabalham, inovam e interagem com seus clientes”, disse Kunal Anand, diretor de inovação da F5.

No entanto, modelos de IA generativos padrão baseados em modelos de linguagem de grande porte (LLMs) prontos para uso muitas vezes não têm informações atualizadas nem inteligência contextual para desempenhar um papel estratégico e confiável no ambiente de negócios dinâmico de hoje, onde o acesso a dados em tempo real, a experiência específica do domínio e a tomada de decisões precisas são essenciais para o sucesso.

Organizações que buscam integrar applications de IA generativa com uma fonte de informações mais atualizadas, precisas e específicas de domínio estão implantando a geração aumentada de recuperação (RAG), uma estrutura de IA que combina abordagens generativas e baseadas em recuperação para melhorar a qualidade e a precisão das respostas geradas por IA.

IA empresarial é um esporte de equipe

Implementar o RAG com sucesso em uma infraestrutura de IA empresarial não é algo simples, do tipo "plug and play". O RAG exige a orquestração de vários componentes e tecnologias tecnológicas e é um excelente exemplo de como as soluções de IA empresarial exigem um ecossistema aberto e colaborativo de provedores de tecnologia, parceiros de infraestrutura e parceiros de canal para ter sucesso.

A implantação do RAG envolve vários fornecedores, incluindo provedores de armazenamento de dados, plataformas de contêineres, LLMs, ferramentas de gerenciamento de tráfego, APIs e infraestrutura de back-end, entre outros. A IA empresarial é realmente um esporte de equipe e, na F5, reconhecemos que muitos participantes devem se unir para tornar a IA em escala possível para nossos clientes. O sucesso exige o poder de uma rede colaborativa que inclua provedores de tecnologia para fornecer os melhores componentes e softwares, parceiros de canal para traduzir ferramentas em resultados comerciais e uma mentalidade que veja a IA não como um produto, mas como um ecossistema de soluções.

Uma base superior para IA

O F5 e o Red Hat OpenShift AI fornecem uma base robusta e unificada para a implantação do RAG em LLMs, abordando as complexidades significativas de segurança e gerenciamento de tráfego envolvidas na integração de dados de várias fontes em um sistema de IA generativo. A Red Hat e a F5 têm um longo histórico de parceria tecnológica , e a colaboração atual das empresas oferece uma plataforma robusta, protegida e escalável para iniciativas orientadas por IA, incluindo integração de RAG em LLMs existentes.

F5 e Red Hat são líderes comprovadamente: A F5 foi nomeada uma das 25 "empresas de IA mais promissoras para data center e edge" pela CRN, citando a "plataforma de entrega de application e segurança tudo-em-um da F5... para ajudar as empresas a atender às demandas de segurança de API, IA e redes multi-nuvem". A Red Hat é reconhecida como líder em soluções empresariais de código aberto pela Dataquest, afirmando que sua “inovação de código aberto definirá a próxima era da TI empresarial”.

A combinação das tecnologias avançadas de segurança e gerenciamento de tráfego da F5 e do Red Hat OpenShift AI , uma plataforma avançada de desenvolvimento de application de IA, ajuda a estabelecer uma estrutura mais segura e escalável para iniciativas orientadas por IA. As organizações podem implantar seus applications de IA com confiança, sabendo que estão protegidos contra ameaças cibernéticas em evolução e são capazes de atender aos requisitos exigentes das cargas de trabalho de IA modernas.

A Red Hat, a F5 e seu ecossistema de parceiros de tecnologia continuarão trabalhando juntos para ajudar os clientes a conectar e proteger seus aplicativos e APIs em ambientes híbridos e complexos. À medida que as organizações exploram o potencial da IA, elas podem contar com fornecedores confiáveis como Red Hat e F5 para fornecer uma plataforma consistente e unificada para manter os ambientes de IA gerenciáveis, econômicos e seguros, promovendo um ambiente onde inovação e segurança andam de mãos dadas.

Desafios da integração do RAG em LLMs existentes

O RAG é cada vez mais essencial para applications de IA generativa de nível empresarial, e o mercado de RAG está preparado para um crescimento substancial nos próximos anos, com uma taxa de crescimento anual composta (CAGR) de 44,7% de 2024 a 2030, podendo atingir US$ 11,03 bilhões até 2030.

Embora o RAG possa melhorar muito os resultados de applications de IA generativa, implantá-lo em LLMs não é simples, pois aumenta muito a complexidade do sistema e os riscos de segurança devido ao fato de que os componentes de dados adicionais do RAG existem em vários ambientes digitais e bases de conhecimento externas. As conexões de rede necessárias para passar solicitações de recuperação e as respostas de dados aumentadas trazem riscos de segurança e vazamento de dados e exigem controles de acesso rigorosos e mecanismos de criptografia para proteger dados confidenciais.

A integração do Red Hat OpenShift AI com o F5 Distributed Cloud Services e o F5 BIG-IP Next para Kubernetes fornece um conjunto básico de serviços que oferecem tecnologias avançadas de segurança e gerenciamento de tráfego para dar suporte e proteger vários casos de uso do RAG.

Os Serviços de Nuvem Distribuída são serviços de segurança, rede e gerenciamento das aplicações baseados em SaaS que permitem aos clientes implantar, proteger e operar seus applications em um ambiente nativo da nuvem onde quer que seja necessário: no data center, em ambientes de múltiplas nuvens ou na rede ou na borda da empresa.

Por sua vez, o BIG-IP Next para Kubernetes otimiza o gerenciamento e a distribuição de tráfego entre clusters de processamento de IA, garantindo comunicação de API escalável e eficiente para dar suporte a cargas de trabalho baseadas em RAG, garantindo fluxos de dados confiáveis e de alto desempenho sem degradação do desempenho.

O anúncio recente da Meta sobre seu rebanho Llama 4 de LLMs , com o Llama 4 Scout apresentando uma janela de contexto de 10 milhões de tokens, gerou comentários de que janelas de contexto expansivas como essas poderiam em breve tornar o RAG obsoleto. No entanto, os LLMs do Llama 4 são pré-treinados e independentes, sem acesso em tempo real a dados externos ou privados, a menos que sejam projetados explicitamente para esses recursos. Por outro lado, o RAG permite que os modelos busquem e incorporem as informações mais atuais e relevantes de vastos armazenamentos de dados em tempo real, garantindo que as saídas de IA sejam precisas e contextualmente relevantes. A F5 acredita que o RAG continuará sendo um mecanismo generativo fundamental de IA porque acomoda melhor a natureza dinâmica e interativa dos fluxos de trabalho de IA.

Uma plataforma conjunta da F5 e da Red Hat para proteger cargas de trabalho RAG

A implantação do Distributed Cloud Services e do BIG-IP Next para Kubernetes no Red Hat OpenShift AI cria uma solução de segurança fortificada para proteger cargas de trabalho do RAG. A plataforma conjunta F5 e Red Hat aumenta a confiabilidade e a escalabilidade do RAG, fornecendo uma base de fácil gerenciamento para soluções de IA generativa habilitadas pelo RAG que oferecem maior precisão e relevância para melhores resultados e uma melhor experiência do usuário.

Para mais informações, leia a visão geral da solução . E se você planeja participar do Red Hat Summit deste ano, participe de uma sessão F5.