Las aplicações nativas de la nube se componen de docenas, cientos o incluso miles de API que conectan microservicios entre sí. Juntos, estos servicios y API brindan la resiliencia, escalabilidad y flexibilidad que son la base de las aplicações nativas de la nube.
Hoy en día, estas API y microservicios subyacentes suelen ser creados por equipos distribuidos globalmente, que necesitan operar con cierto grado de autonomía e independencia para ofrecer capacidades al mercado de manera oportuna.
Al mismo tiempo, los equipos de operaciones de la plataforma son responsables de garantizar la confiabilidad y seguridad general de las aplicaciones y la infraestructura de la empresa, incluidas sus API subyacentes. Necesitan visibilidad del tráfico de API y la capacidad de establecer límites globales para garantizar una seguridad y un cumplimiento uniformes, todo ello al mismo tiempo que brindan una excelente experiencia para los desarrolladores de API .
Aunque los intereses de estos dos grupos puedan estar en conflicto, no creemos que eso sea inevitable. Creamos API Connectivity Manager como parte de F5 NGINX Management Suite para permitir simultáneamente a los equipos de operaciones de plataforma mantener las cosas seguras y funcionando sin problemas y a los desarrolladores de API crear y lanzar nuevas capacidades con facilidad.
Como plano de gestión de próxima generación, API Connectivity Manager está diseñado para aprovechar y ampliar el poder de NGINX Plus como puerta de enlace de API . Si ha utilizado NGINX en el pasado, está familiarizado con la escalabilidad, confiabilidad, flexibilidad y rendimiento de NGINX como puerta de enlace API.
Al diseñar API Connectivity Manager, desarrollamos una nueva arquitectura para permitir que los equipos de Platform Ops y los desarrolladores trabajen mejor juntos. Utiliza los siguientes términos estándar de la industria para sus componentes (algunos de los cuales difieren de los nombres familiares para los usuarios experimentados de NGINX):
El siguiente diagrama ilustra cómo se anidan los componentes dentro de un espacio de trabajo:
Esta jerarquía lógica permite una variedad de casos de uso importantes que respaldan la conectividad API en toda la empresa. Por ejemplo, los espacios de trabajo pueden incorporar múltiples tipos de infraestructura (por ejemplo, nube pública y local), brindando a los equipos acceso a ambos y brindando visibilidad del tráfico de API en ambos entornos a los propietarios de la infraestructura.
Analizaremos los componentes arquitectónicos con más profundidad en futuras publicaciones. Por ahora, veamos cómo API Connectivity Manager atiende a las diferentes personas que contribuyen al desarrollo y la entrega de API.
El equipo de operaciones de la plataforma es responsable de construir y gestionar el ciclo de vida de la infraestructura para cada organización. Proporcionan la plataforma en la que los desarrolladores crean aplicações y servicios que sirven a los clientes y socios. Los equipos de desarrollo suelen estar descentralizados, trabajan en múltiples entornos y reportan a diferentes líneas de negocio. Satisfacer las necesidades de estos grupos y entornos dispersos y, al mismo tiempo, mantener los estándares de toda la empresa es uno de los mayores desafíos que enfrentan hoy los equipos de Platform Ops.
API Connectivity Manager ofrece formas innovadoras de segregar los equipos y sus operaciones utilizando espacios de trabajo como un límite lógico. También permite a los equipos de Platform Ops administrar el ciclo de vida de la infraestructura sin interferir con los equipos que crean e implementan API. API Connectivity Manager viene con un conjunto integrado de políticas globales predeterminadas para brindar seguridad y configuración básicas para las puertas de enlace de API y los portales para desarrolladores de NGINX Plus. Luego, los equipos de operaciones de la plataforma pueden configurar políticas globales complementarias para requerir opcionalmente mTLS, configurar formatos de registro o estandarizar encabezados de proxy.
La política global impone uniformidad y aporta consistencia a las API que se implementan en el clúster de API Gateway compartido. API Connectivity Manager también ofrece a las organizaciones la posibilidad de ejecutar clústeres descentralizados en el plano de datos para separar físicamente dónde cada equipo o línea de negocio implementa sus API.
En un blog posterior, exploraremos cómo los equipos de Platform Ops pueden usar API Connectivity Manager para garantizar la seguridad y la gobernanza de las API y, al mismo tiempo, ayudar a los desarrolladores de API a tener éxito.
Los equipos de diferentes líneas de negocio poseen y operan sus propios conjuntos de API. Necesitan control sobre sus productos API para entregar sus aplicações y servicios al mercado a tiempo, lo que significa que no pueden darse el lujo de esperar la aprobación de otros equipos para utilizar infraestructura compartida. Al mismo tiempo, es necesario que haya “barandillas” para evitar que los equipos se pisen los pies a los demás.
Al igual que el personaje de Platform Ops, los desarrolladores como propietarios de API obtienen sus propios espacios de trabajo que separan sus API de las de otros equipos. API Connectivity Manager proporciona políticas a nivel de proxy de API para que los propietarios de API configuren ajustes a nivel de servicio como limitación de velocidad y requisitos de seguridad adicionales.
En un blog posterior, exploraremos cómo los desarrolladores pueden usar API Connectivity Manager para simplificar la gestión del ciclo de vida de las API.
Comience una prueba gratuita de 30 días de NGINX Management Suite , que incluye API Connectivity Manager y Instance Manager .
"Esta publicación de blog puede hacer referencia a productos que ya no están disponibles o que ya no reciben soporte. Para obtener la información más actualizada sobre los productos y soluciones F5 NGINX disponibles, explore nuestra familia de productos NGINX . NGINX ahora es parte de F5. Todos los enlaces anteriores de NGINX.com redirigirán a contenido similar de NGINX en F5.com.