En el verano de 2024, el fundador y director ejecutivo de Nvidia, Jensen Huang, propuso que “un nuevo tipo de fábricas de IA en centros de datos producirían un nuevo producto: inteligencia artificial”. Entonces, enmarquemos la IA como si fuera un producto físico. Hacer esto evoca imágenes del Complejo River Rouge de Ford, una encarnación de la integración vertical y la industrialización. El hierro y el caucho entraron por un lado, los automóviles Ford salieron por el otro. Con sus propios muelles, 160 kilómetros de vías férreas interiores, una planta eléctrica dedicada e incluso sus propias fábricas integradas de acero, vidrio y papel, The Rouge funcionaba las 24 horas del día y fabricaba casi 1,5 millones de coches al año.
De manera similar, las fábricas de IA de hoy y del futuro que brindan modelos de inferencia y entrenamiento de alto volumen y alto rendimiento ingieren cantidades masivas de ingredientes crudos. Es decir, datos. Estructurado, no estructurado, vídeo, texto y más. Estas fábricas transforman estos datos en resultados tokenizados que pueden aprovecharse en innumerables aplicações. Y así como The Rouge Complex necesitaba un control preciso sobre cada etapa de producción, las cargas de trabajo de IA requieren sistemas robustos de gestión del tráfico para manejar la ingesta, el procesamiento y la entrega de datos; en una palabra: logística. Las soluciones adecuadas de gestión del tráfico brindan a las fábricas de IA la capacidad de tomar ingredientes crudos del campo y hacerlos utilizables. Con las herramientas logísticas adecuadas, los equipos pueden garantizar un flujo de datos fluido, alto rendimiento, baja latencia y seguridad, similar a mantener una línea de montaje funcionando sin problemas en cada etapa.
En 2020, Harvard Business Review describió cómo Ant Group, filial de Alibaba, crea inteligencia procesable desde su fábrica de IA para "gestionar una variedad de negocios, atendiendo a [más de] 10 veces más clientes que los bancos más grandes de EE. UU., con menos de una décima parte del número de empleados". La forma en que Ant Group conceptualiza la construcción de una fábrica de IA es igualmente convincente:
“Cuatro componentes son esenciales para cada fábrica. El primero es el flujo de datos, el proceso semiautomatizado que recopila, limpia, integra y protege los datos de forma sistemática, sostenible y escalable. El segundo son los algoritmos, que generan predicciones sobre estados o acciones futuras del negocio. La tercera es una plataforma de experimentación, en la que se prueban hipótesis sobre nuevos algoritmos para garantizar que sus sugerencias tengan el efecto previsto. “El cuarto es la infraestructura, los sistemas que integran este proceso en el software y lo conectan con usuarios internos y externos”.
Anteriormente en nuestra serie sobre fábricas de IA , F5 definió una fábrica de IA como una inversión masiva en almacenamiento, redes y computación que satisface requisitos de inferencia y capacitación de alto volumen y alto rendimiento. Es por esto que el primer y el cuarto componente en la lista de Ant Group son especialmente intrigantes: el desafío de establecer los sistemas necesarios para gestionar de manera segura y eficiente los datos que ingieren los modelos de IA pone en primer plano la cuestión de cómo las fábricas de IA deberían desarrollar la infraestructura que las rodea para producir valor.
La gestión del tráfico para la ingesta de datos de IA es el proceso incesante a través del cual se gestiona y transporta el tráfico de datos de IA ricos en medios y con miles de millones de parámetros hacia una fábrica de IA con fines de entrenamiento y aprendizaje automático. Aquí es donde entra en juego una solución de gestión de tráfico de alto rendimiento para llevar ese tráfico a la fábrica de IA. Sin una solución de este tipo, los equipos pueden encontrarse rápidamente en la necesidad de reutilizar conexiones para mantener el flujo de tráfico o alcanzar los límites de la infraestructura de almacenamiento, ninguna de las cuales es ideal para los requisitos de transporte de datos de alta capacidad y baja latencia que las fábricas de IA exigen para funcionar al ritmo y la escala deseados y optimizados .
Gestión del tráfico de datos de IA que viaja hacia, a través de y entre fábricas de IA.
Pero el ritmo de progreso en este campo está lejos de estar estancado. Los modelos de IA cada vez más complejos requieren mayores cantidades de entrada de datos a frecuencias cada vez mayores. Esto presenta un desafío de gravedad de datos, ya que la ubicación de los datos en una nube o en las instalaciones es muy importante dentro de un modelo de IA. Una fábrica de IA construida para resistir la atracción gravitacional de las demandas de datos de IA del futuro necesita una infraestructura que pueda escalar para mantenerse al día con los requisitos para obtener información más rápida de los datos que recibe. En última instancia, la infraestructura de una fábrica de IA puede determinar el éxito o el fracaso del modelo de IA que respalda. Este rápido crecimiento en el consumo de medios enriquecidos puede incrementar significativamente el tráfico de red y los costos asociados si se procesa a través de algunos proveedores de la nube. Por lo tanto, las empresas que enfrentan esta situación se enfrentan a un doble desafío: mantener el rendimiento de datos de alta velocidad requerido para modelos de aprendizaje de IA eficientes y gestionar las complejidades y los gastos vinculados al tránsito y procesamiento de datos en la nube.
Una evaluación cuidadosa de los cuatro tipos de implementación de fábricas de IA descritos en el artículo inicial sobre fábricas de IA (IA-SaaS, alojadas en la nube, autoalojadas o alojadas en el borde) puede ayudar a las empresas a gestionar estas complejidades al eliminar o reducir la dependencia del ancho de banda de la nube. El procesamiento local de datos no solo elimina la cuestión del ancho de banda de la nube de la ecuación. También proporciona control total sobre conjuntos de datos de entrenamiento sensibles. Esto, a su vez, facilita el cumplimiento de los requisitos reglamentarios (por ejemplo, GDPR, HIPAA o PCI DSS) ya que las organizaciones pueden controlar cómo se almacenan, se accede y se procesan los datos, al tiempo que minimizan la exposición de datos al mantener la información confidencial dentro de la red segura de una organización.
El tráfico de datos de IA y el tráfico de aplicação interactúan con F5 BIG-IP Local Traffic Manager (LTM) y las soluciones de hardware de próxima generación de manera similar. Esto significa que, al igual que optimizan los flujos de tráfico de aplicação tradicionales, los equipos pueden optimizar sus flujos de tráfico de datos de IA con herramientas como el perfil FastL4 , aumentando el rendimiento y el rendimiento del servidor virtual . Pueden aprovechar las optimizaciones de TCP para ajustar el modo en que los sistemas manejan las conexiones TCP, algo fundamental para el rendimiento de la red. Incluso pueden implementar OneConnect de BIG-IP, aumentando el rendimiento de la red al administrar de manera eficiente las conexiones creadas entre sus sistemas BIG-IP y los miembros del grupo back-end. Las organizaciones que buscan una solución para distribuir el tráfico de datos de IA entre fábricas de IA no tienen que buscar muy lejos para encontrarla. F5 ha estado desarrollando herramientas para optimizar la gestión del tráfico de aplicaciones durante más de dos décadas, lo que hace que BIG-IP LTM sea ideal para gestionar el tráfico de ingesta de datos de IA.
Las aplicações de IA son las más modernas de las aplicações modernas. Sin una solución de gestión de tráfico robusta y versátil, los datos utilizables languidecen en el campo y el valor que un modelo de IA puede obtener de ellos se evapora. Rouge tenía sus muelles y kilómetros de vías ferroviarias, las fábricas de IA tienen soluciones F5 como BIG-IP.
El enfoque de F5 en la IA no termina aquí: explore cómo F5 protege y distribuye aplicaciones de IA en todas partes .
¿Está interesado en aprender más sobre las fábricas de IA? Explora otros dentro de nuestra serie de blogs sobre fábricas de IA: