BLOG

O poder e o significado do NVIDIA BlueField DPU para fábricas de IA

Hunter Smit Miniatura
Caçador Smit
Publicado em 11 de dezembro de 2024

À medida que as organizações aceleram a inovação, desenvolvendo produtos baseados em IA e transformadores, como carros autônomos ou modelos de linguagem de grande porte (LLMs), uma infraestrutura eficiente é essencial para dimensionar as operações e permanecer competitiva. Historicamente, os data centers se concentraram no uso de unidades centrais de processamento (CPUs) para computação de uso geral e unidades de processamento gráfico (GPUs) para tarefas intensivas de processamento paralelo essenciais para IA e aprendizado de máquina. À medida que os modelos de IA crescem em escala e complexidade, os data centers se tornaram a nova unidade de computação, ultrapassando os limites das redes de nuvem tradicionais. Para permitir a transformação em direção à computação em escala de data center, a unidade de processamento de dados (DPU) surgiu como um terceiro pilar na computação.

A ascensão das fábricas de IA

Anteriormente em nossa série sobre fábricas de IA, a F5 definiu uma fábrica de IA como um grande investimento em armazenamento, rede e computação que atende a requisitos de treinamento e inferência de alto volume e alto desempenho. Assim como as fábricas tradicionais, as fábricas de IA aproveitam modelos de IA pré-treinados para transformar dados brutos em inteligência.

O que é uma Unidade de Processamento de Dados (DPU)?

Uma DPU é um processador programável projetado para lidar com grandes movimentações e processamentos de dados por meio de aceleração de hardware na taxa de linha de uma rede. No final de 2024, anunciamos o BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3. O NVIDIA BlueField é uma plataforma de computação acelerada para infraestrutura de data center, desenvolvida especificamente para alimentar fábricas de IA da NVIDIA. Enquanto a CPU é responsável pela computação de uso geral para aplicativos computacionais e a GPU se destaca em tarefas de computação acelerada, como computações vetoriais e matriciais em larga escala relacionadas à IA e renderização de gráficos, a DPU NVIDIA BlueField é frequentemente incorporada a uma placa de interface de rede (NIC) PCIe (Peripheral Component Interconnect Express), que é responsável pela conectividade de rede para o host ou chassi de um cluster de IA. Em outras palavras, a NIC agora se tornou essencialmente um processador poderoso, otimizado para processar dados conforme eles entram e saem do servidor. A DPU BlueField também pode funcionar como um dispositivo de rede entre clusters quando vários hosts ou chassis estão em um único cluster de IA.

Poder desbloqueado

Ao lidar com redes definidas por software, gerenciamento de armazenamento e serviços de segurança, as DPUs BlueField reduzem a carga computacional nas CPUs, permitindo que elas se concentrem nas tarefas em que se destacam. Essa capacidade de descarregamento é crucial para fábricas de IA, onde grandes quantidades de dados devem ser processadas e transferidas rapidamente para atender às demandas de modelos complexos de IA e tarefas de inferência em tempo real.

As DPUs BlueField contribuem significativamente para a eficiência energética e escalabilidade em fábricas de IA. Como as fábricas de IA exigem enormes recursos computacionais, o gerenciamento eficiente de energia e resfriamento se torna primordial. As DPUs, com seus mecanismos de aceleração especializados e interfaces de rede de alto desempenho, garantem que os dados sejam processados e transportados com latência e consumo de energia mínimos. Essa eficiência não apenas reduz os custos operacionais, mas também permite que as fábricas de IA sejam dimensionadas de forma eficaz. Com as DPUs BlueField, fábricas de IA e infraestrutura em larga escala podem alcançar uma infraestrutura equilibrada, de alto desempenho e alta eficiência que dá suporte à inovação e implantação contínuas de tecnologias de IA.

Onde as DPUs BlueField são implantadas em fábricas de IA?

Ao analisar a Arquitetura de Referência de IA da F5 , as DPUs são comumente implantadas nas áreas funcionais de gerenciamento de corpus RAG, ajuste fino, treinamento e serviços de inferência, bem como nos clusters de armazenamento que dão suporte a essas funções. Além disso, as DPUs são encontradas em inúmeras aplicações onde são necessários alto desempenho de transferência de dados e eficiência energética, incluindo exemplos como DPUs que dão suporte a implantações de rede de acesso de rádio (RAN) 5G.

Diagrama de arquitetura de referência de IA

A arquitetura de referência de IA do F5 destaca áreas onde as DPUs são comumente implantadas.

Descarregando e acelerando a entrega e a segurança do aplicativo para o DPU

O novo requisito para gerenciamento de tráfego eficiente e segurança robusta para fábricas de IA representa uma mudança importante com foco no fluxo de dados e infraestrutura fortificada para evitar ameaças à segurança. O F5 BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 permite conectividade de baixa latência e alto rendimento ao descarregar e acelerar a movimentação de dados da CPU para as DPUs. Além disso, ele integra recursos de segurança abrangentes, como firewalls, mitigação de DDoS, WAF, proteção de API e prevenção de intrusão, diretamente na DPU programável NVIDIA BlueField-3. Isso permite que você crie uma arquitetura que isola modelos e aplicativos de IA de ameaças, garantindo a integridade e a soberania dos dados.

O BIG-IP Next para Kubernetes oferece suporte a multilocação, permitindo a hospedagem de vários usuários e cargas de trabalho de IA em uma única infraestrutura, possibilitando o isolamento da rede. Gerenciar uma infraestrutura de IA em larga escala se torna simples com o BIG-IP Next para Kubernetes, pois ele fornece um ponto central para gerenciar redes, gerenciamento de tráfego, segurança e ambientes multilocatários. Isso simplifica as operações e reduz as despesas operacionais ao oferecer dados de tráfego detalhados para visibilidade da rede e otimização do desempenho. A integração entre o BIG-IP Next para Kubernetes e o NVIDIA BlueField-3 DPU ajuda a garantir que as fábricas de IA operem em seu potencial máximo, ao mesmo tempo em que reduz a proliferação de ferramentas e a complexidade operacional.

Desenvolvido por F5

Para empresas que investem em IA, garantir que sua infraestrutura esteja otimizada e segura não é negociável. O F5 BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 é um investimento estratégico para oferecer alto desempenho, escalabilidade e segurança, maximizando o retorno da infraestrutura de IA em larga escala. Para organizações que implantam GPUs e DPUs para dar suporte a investimentos em fábricas de IA, entre em contato com a F5 para saber como o BIG-IP Next para Kubernetes pode aprimorar suas cargas de trabalho de IA.

O foco da F5 em IA não para por aqui: explore como a F5 protege e entrega aplicativos de IA em qualquer lugar .