A F5 e a NVIDIA colaboram para criar soluções de infraestrutura aceleradas, permitindo que as organizações entreguem aplicativos de IA de forma eficaz e segura em escala de nuvem.
O BIG-IP Next para Kubernetes oferece gerenciamento de tráfego de alto desempenho e segurança para infraestrutura de IA em larga escala, desbloqueando maior eficiência, controle e desempenho para aplicativos de IA.
O BIG-IP Next para Kubernetes é executado nativamente em DPUs NVIDIA BlueField-3. Isso fornece às empresas e provedores de serviços um único ponto de controle para maximizar o uso da infraestrutura de IA e acelerar o tráfego de IA, para ingestão de dados, treinamento de modelos, inferência e geração aumentada de recuperação (RAG).
Maximize o investimento em infraestrutura de IA e alcance menor TCO ao mesmo tempo em que fornece gerenciamento de tráfego de alto desempenho e balanceamento de carga para infraestrutura de IA em larga escala.
Habilite multilocação segura e isolamento de rede para aplicativos de IA, permitindo que vários locatários e cargas de trabalho compartilhem com eficiência uma única infraestrutura de IA, até mesmo no nível do servidor.
Integre recursos de segurança críticos e arquitetura de confiança zero, incluindo firewall de ponta, mitigação de DDoS, proteção de API, prevenção de intrusão, criptografia e gerenciamento de certificados, ao mesmo tempo em que descarrega, acelera e isola tudo isso na DPU.
Desempenho, eficiência e segurança são essenciais para o sucesso de organizações que implantam clusters de GPU em larga escala em suas fábricas de IA. O BIG-IP Next para Kubernetes aproveita as plataformas NVIDIA BlueField-3 DPU, liberando ciclos de CPU valiosos para aplicativos geradores de receita. O BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 (versões B3220 e B3240) otimiza a movimentação de dados e melhora a utilização da GPU, ao mesmo tempo que otimiza o consumo de energia.
O diretor de tecnologia e IA da F5, Kunal Anand, responde a perguntas e discute a colaboração da F5 e da NVIDIA e o anúncio do BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3
Aplicações de IA exigem capacidades de rede aceleradas. O BIG-IP Next para Kubernetes otimiza os fluxos de tráfego para clusters de IA, resultando em uso mais eficiente dos recursos de GPU por meio da interface direta com redes front-end. Para modelos de IA com vários bilhões de parâmetros, o BIG-IP Next para Kubernetes implantado em DPUs BlueField-3 reduz a latência e fornece balanceamento de carga de alto desempenho para ingestão de dados e consultas recebidas.
O BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 permite que as organizações ofereçam suporte seguro a mais usuários em clusters de computação compartilhados, ao mesmo tempo em que dimensionam cargas de trabalho de treinamento e inferência de IA. Conecte modelos de IA com dados em locais distintos e, ao mesmo tempo, melhore significativamente a visibilidade do desempenho do aplicativo, utilizando recursos avançados do Kubernetes para automação de carga de trabalho de IA e controles de políticas centralizados.
O rápido crescimento de APIs para modelos de IA introduz desafios de segurança significativos. O BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 automatiza a descoberta e a proteção de endpoints, protegendo aplicativos de IA contra ameaças em evolução. Ao aproveitar a arquitetura de confiança zero e transferir o processamento de rede e segurança de CPUs para DPUs, o BIG-IP Next para Kubernetes oferece proteção detalhada e garante criptografia de dados robusta. Essa abordagem não apenas aprimora as defesas cibernéticas, mas também otimiza o gerenciamento de dados de IA, resultando em uma infraestrutura mais segura, escalável e eficiente para provedores de serviços e empresas.
O BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 atende às crescentes demandas de cargas de trabalho de IA e foi desenvolvido especificamente para ambientes Kubernetes. Ao aumentar a eficiência dos fluxos de tráfego norte-sul, as organizações ganham uma visão integrada de rede, gerenciamento de tráfego e segurança para casos de uso de IA, como inferência e RAG.
Em meio à evolução da tecnologia de IA, o conceito de fábrica de IA surgiu como uma analogia de como os modelos e serviços de IA são criados, refinados e implantados.
Implementando aplicativos nativos da nuvem em escala? Descubra como a F5 e a NVIDIA podem permitir que você alcance maior eficiência, desempenho e segurança para IA e outros aplicativos modernos.
Após o envio, um representante de desenvolvimento de negócios da F5 entrará em contato para agendar.