Durante la última década, NGINX Open Source se ha posicionado como uno de los servidores web más utilizados a nivel mundial y una de las soluciones líderes en entrega de aplicaciones según cuota de mercado. Ha facilitado el balanceo de carga y el proxy inverso en proyectos que van desde pequeñas startups y trabajos académicos hasta algunas de las aplicaciones web más grandes del mundo.
Así como se convirtió en la opción predeterminada para la entrega de aplicaciones, NGINX se ha consolidado silenciosamente como un pilar fundamental en el entrenamiento y despliegue de aplicaciones de IA. Los principales frameworks, kits de herramientas, bibliotecas y plataformas de IA—como Intel OpenVINO Model Server, NVIDIA Morpheus, vLLM de Meta, NVIDIA Triton y otros—incorporan configuraciones nativas para F5 NGINX Plus (y NGINX Open Source) que gestionan proxy gRPC/HTTP, terminación SSL/TLS, balanceo de carga con supervisión de salud y reconfiguración dinámica desde el primer momento. Muchos servicios y soluciones de IA que funcionan en clústeres Kubernetes eligen F5 NGINX Ingress Controller como una de sus opciones preferentes para manejar el tráfico que entra y sale de los clústeres de IA, tanto en el entrenamiento de modelos como en su inferencia. Si profundizas, verás que está presente casi en todo lugar donde actúa la IA.
En una gran variedad de casos de uso de IA, NGINX es un factor clave en la arquitectura de IA. Ya sea que afines modelos base, transmitas salidas de tokens de LLM o encamines solicitudes hacia puntos de detección de anomalías en tiempo real, es muy probable que NGINX ya forme parte de la ruta.
NGINX es una de las opciones de ingreso predeterminadas en muchas de las principales pilas, herramientas y servicios gestionados de AIOps.
Sistema de IA | Cómo utiliza NGINX |
Beneficio práctico |
---|---|---|
Intel OpenVINO Model Serve | F5 e Intel presentan una demo que despliega fragmentos de modelos detrás de NGINX Plus (YouTube) | Una sola pasarela puede enrutar hacia backends de CPU, GPU o VPU. |
NVIDIA Triton | El Chart de Helm instala Triton con NGINX Plus Ingress para acceso a gRPC (GitHub) | La multiplexación HTTP/2 maximiza el uso de la GPU. |
NVIDIA Morpheus | Guía "Cómo lo hice" protege Morpheus con NGINX Plus Ingress (Comunidad F5) | Descarga de TLS y WAF adaptativo ante la inferencia de seguridad en tiempo real. |
NVIDIA (XLIO) | Guía de implementación de NGINX con NVIDIA Accelerated IO (XLIO) (docs.nvidia.com) | Mejora de descarga TLS y ajuste de rendimiento, con instrucciones de compilación que incluyen soporte para OpenSSL y archivos de ejemplo. |
Meta vLLM | La documentación oficial explica cómo balancear varias instancias de vLLM mediante NGINX (vLLM) | Escala horizontal rápida para endpoints de generación de texto. |
Los equipos de MLOps pueden utilizar productos NGINX por las mismas razones que los responsables de microservicios y APIs, ambos fundamentales en despliegues de IA, han apostado por NGINX. Es ligero, modular, portable y gestiona grandes volúmenes de tokens en distintos entornos. Tú, como desarrollador de IA o ingeniero de aprendizaje automático, puedes desplegar NGINX formando parte de tus recetas habituales, utilizando una imagen de contenedor configurada por tu plataforma o equipo de MLOps. NGINX se integra con la aceleración por hardware en la mayoría de plataformas y arquitecturas de procesadores.
Los componentes de IA que incluyen NGINX como opción predeterminada cubren todo el espectro de la infraestructura de IA, desde la programación básica de GPU hasta el servicio avanzado de modelos, la orquestación de implementaciones y la gobernanza empresarial. En conjunto, muestran cómo NGINX soporta numerosos casos de uso: enrutar tráfico de forma segura hacia puntos de inferencia, facilitar una entrega de modelos escalable y eficiente, gestionar el acceso a clústeres multiinquilino y aplicar políticas operativas sobre control de versiones, auditorías y cumplimiento normativo.
Estas plataformas y herramientas abarcan todo el espectro de la infraestructura de IA, desde la gestión de GPUs a bajo nivel hasta el servicio avanzado de modelos, la orquestación de implementaciones y la gobernanza a nivel empresarial. Demuestran cómo NGINX respalda múltiples casos de uso: enruta tráfico con seguridad hacia los puntos finales de inferencia, facilita una entrega de modelos escalable y eficiente, gestiona el acceso a clústeres multiinquilino y aplica políticas operativas sobre control de versiones, auditoría y cumplimiento normativo. El listado crece continuamente y esperamos con interés ver qué desarrollan las próximas empresas nativas de IA utilizando NGINX.
Reciba apoyo para escalar su IA con F5 NGINX One.