BLOG

El poder y la importancia de la DPU NVIDIA BlueField para las fábricas de IA

Miniatura de Hunter Smit
Cazador Smit
Publicado el 11 de diciembre de 2024

A medida que las organizaciones aceleran la innovación y desarrollan productos impulsados por IA que cambian la vida, como automóviles autónomos o modelos de lenguaje grande (LLM), una infraestructura eficiente es fundamental para escalar las operaciones y mantenerse competitivos. Históricamente, los centros de datos se han centrado en el uso de unidades centrales de procesamiento (CPU) para computación de propósito general y unidades de procesamiento de gráficos (GPU) para tareas intensivas de procesamiento paralelo fundamentales para la IA y el aprendizaje automático. A medida que los modelos de IA crecen en escala y complejidad, los centros de datos se han convertido en la nueva unidad de computación, ampliando los límites de las redes de nube tradicionales. Para posibilitar la transformación hacia la computación a escala de centro de datos, la unidad de procesamiento de datos (DPU) ha surgido como un tercer pilar de la informática.

El auge de las fábricas de IA

Anteriormente en nuestra serie sobre fábricas de IA, F5 definió una fábrica de IA como una inversión masiva en almacenamiento, redes y computación que satisface requisitos de inferencia y capacitación de alto volumen y alto rendimiento. Al igual que las plantas de fabricación tradicionales, las fábricas de IA aprovechan modelos de IA previamente entrenados para transformar datos en bruto en inteligencia.

¿Qué es una Unidad de Procesamiento de Datos (UPD)?

Una DPU es un procesador programable diseñado para manejar grandes movimientos y procesamiento de datos a través de aceleración de hardware a la velocidad de línea de una red. A fines de 2024, anunciamos BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3. NVIDIA BlueField es una plataforma informática acelerada para la infraestructura del centro de datos, diseñada específicamente para impulsar las fábricas de inteligencia artificial de NVIDIA. Si bien la CPU es responsable de la computación de propósito general para aplicações computacionales y la GPU se destaca en tareas de computación acelerada, como cálculos matriciales y vectoriales a gran escala relacionados con IA y renderizado de gráficos, la DPU NVIDIA BlueField a menudo se incorpora a una tarjeta de interfaz de red (NIC) PCIe (Peripheral Components Interconnect Express), que es responsable de la conectividad de red para el host o chasis de un clúster de IA. En otras palabras, la NIC ahora se ha convertido esencialmente en un procesador potente, optimizado para procesar datos a medida que entran y salen del servidor. La DPU BlueField también puede funcionar como un dispositivo de red entre clústeres cuando varios hosts o chasis están en un solo clúster AI.

Poder desbloqueado

Al gestionar redes definidas por software, gestión de almacenamiento y servicios de seguridad, las DPU BlueField reducen la carga computacional de las CPU, lo que les permite concentrarse en las tareas en las que se destacan. Esta capacidad de descarga es crucial para las fábricas de IA, donde se deben procesar y transferir rápidamente grandes cantidades de datos para satisfacer las demandas de modelos de IA complejos y tareas de inferencia en tiempo real.

Las DPU BlueField contribuyen significativamente a la eficiencia energética y la escalabilidad dentro de las fábricas de IA. Como las fábricas de IA requieren enormes recursos computacionales, la gestión eficiente de la energía y la refrigeración se vuelve primordial. Las DPU, con sus motores de aceleración especializados e interfaces de red de alto rendimiento, garantizan que los datos se procesen y transporten con una latencia y un consumo de energía mínimos. Esta eficiencia no solo reduce los costos operativos sino que también permite que las fábricas de IA escalen de manera efectiva. Con las DPU BlueField, las fábricas de IA y la infraestructura a gran escala pueden lograr una infraestructura equilibrada, de alto rendimiento y alta eficiencia que respalde la innovación y la implementación continuas de tecnologías de IA.

¿Dónde se implementan las DPU de BlueField en las fábricas de IA?

Al observar la arquitectura de referencia de IA de F5 , las DPU se implementan comúnmente dentro de las áreas funcionales de gestión de corpus RAG, ajuste fino, capacitación y servicios de inferencia, así como en los clústeres de almacenamiento que respaldan estas funciones. Además, las DPU se encuentran en numerosas aplicações donde se requiere un alto rendimiento de datos y eficiencia energética, incluidos ejemplos como las DPU que admiten implementaciones de redes de acceso por radio (RAN) 5G.

Diagrama de arquitectura de referencia de IA

La arquitectura de referencia de inteligencia artificial de F5 que destaca las áreas donde comúnmente se implementan las DPU.

Descarga y aceleración de la entrega y seguridad de aplicação a la DPU

El nuevo requisito de una gestión eficiente del tráfico y una seguridad sólida para las fábricas de IA representa un cambio importante que se centra en el flujo de datos y la infraestructura fortificada para prevenir amenazas a la seguridad. F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3 permite una conectividad de baja latencia y alto rendimiento al descargar y acelerar el movimiento de datos desde la CPU a las DPU. Además, integra funciones de seguridad integrales, como firewalls, mitigación de DDoS, WAF, protección de API y prevención de intrusiones, directamente en la DPU programable NVIDIA BlueField-3. Esto le permite crear una arquitectura que aísla los modelos y aplicaciones de IA de las amenazas, lo que garantiza la integridad y la soberanía de los datos.

BIG-IP Next para Kubernetes admite múltiples tenencias, lo que permite alojar múltiples usuarios y cargas de trabajo de IA en una única infraestructura, lo que posibilita el aislamiento de la red. Administrar una infraestructura de IA a gran escala se vuelve sencillo con BIG-IP Next para Kubernetes, ya que proporciona un punto central para administrar redes, gestión de tráfico, seguridad y entornos de múltiples inquilinos. Esto simplifica las operaciones y reduce los gastos operativos al ofrecer datos de tráfico detallados para la visibilidad de la red y la optimización del rendimiento. La integración entre BIG-IP Next para Kubernetes y NVIDIA BlueField-3 DPU ayuda a garantizar que las fábricas de IA funcionen a su máximo potencial y, al mismo tiempo, reducen la proliferación de herramientas y la complejidad operativa.

Desarrollado por F5

Para las empresas que invierten en IA, garantizar que su infraestructura esté optimizada y segura es algo no negociable. F5 BIG-IP Next para Kubernetes implementado en DPU NVIDIA BlueField-3 es una inversión estratégica para ofrecer alto rendimiento, escalabilidad y seguridad, maximizando el retorno de la infraestructura de IA a gran escala. Para las organizaciones que implementan GPU y DPU para respaldar las inversiones en fábricas de IA, comuníquese con F5 para conocer cómo BIG-IP Next para Kubernetes puede mejorar sus cargas de trabajo de IA.

El enfoque de F5 en la IA no termina aquí: explore cómo F5 protege y distribuye aplicaciones de IA en todas partes .