BLOG | NGINX

Los grandes éxitos de 2021 en el blog de NGINX

NGINX - Parte de F5 - horizontal, negro, tipo RGB
Miniatura de Scott De Buitléir
Scott De Buitléir
Publicado el 22 de diciembre de 2021

A medida que la agitación causada por la pandemia de COVID-19 continuó durante 2021, en NGINX intentamos estar a la altura del desafío y seguir avanzando para realizar cambios positivos para nuestra comunidad, socios y clientes.

Al acercarnos al final del año, aprovechamos esta oportunidad para repasar una selección de los artículos de blog más grandes y populares que hemos publicado, según la votación de ustedes, nuestra comunidad. Continúe leyendo para ver qué eventos importantes cubrimos y ponerse al día con noticias interesantes y temas que quizás se haya perdido.

Cómo elegir una malla de servicios

A medida que su implementación de Kubernetes madura, puede ser un desafío saber cuándo una malla de servicios generará beneficios y no solo complejidad adicional. Y una vez que sabes que necesitas una malla de servicios, elegir la correcta tampoco siempre es sencillo. En esta publicación, Jenn Gile proporciona una lista de verificación de seis puntos para determinar si necesita una malla de servicios y una guía de conversación para facilitar la sesión de toma de decisiones estratégicas que recomendamos que tenga con su equipo y las partes interesadas sobre qué malla de servicios es la adecuada para usted.

NGINX y HAProxy: Prueba de la experiencia del usuario en la nube

Muchos puntos de referencia de rendimiento miden el rendimiento máximo o las solicitudes por segundo (RPS), pero es posible que esas métricas no cuenten toda la historia del rendimiento en sitios del mundo real. Esto nos lleva a la observación de que lo que más importa es brindar un rendimiento consistente y de baja latencia a todos sus usuarios, incluso bajo alta carga. Al comparar NGINX y HAProxy que se ejecutan en Amazon Elastic Compute Cloud (EC2) como proxies inversos, Amir Rawdat se propuso hacer dos cosas:

  1. Determinar qué nivel de carga maneja cómodamente cada proxy
  2. Recopilar la distribución de percentiles de latencia, que consideramos que es la métrica más directamente correlacionada con la experiencia del usuario.

Obtenga los resultados y todos los detalles de las pruebas .

Presentación del Administrador de instancias NGINX

NGINX realmente puede considerarse como una navaja suiza™ que acelera sus esfuerzos de modernización de aplicação e infraestructura de TI. Sin embargo, esta funcionalidad amplia y versátil puede dar lugar a muchas instancias de NGINX distribuidas en una organización, a veces con NGINX Open Source y NGINX Plus administradas por diferentes grupos. ¿Cómo realizar el seguimiento de todas las instancias? ¿Cómo garantizar que tengan configuraciones y configuraciones de seguridad actualizadas ? Aquí es donde entra en juego el Administrador de instancias F5 NGINX.

[ Editor : F5 NGINX Instance Manager ahora es Instance Manager , parte de F5 NGINX Management Suite.]

Ideal para usuarios de DevOps que son expertos en NGINX y tienen mucha experiencia con configuraciones de NGINX, NGINX Instance Manager simplifica la administración, la configuración y la visibilidad de NGINX. En esta publicación, Karthik Krishnaswamy explica cómo NGINX Instance Manager puede beneficiarlo .

¿Qué son los espacios de nombres y los cgroups y cómo funcionan?

La unidad NGINX admite espacios de nombres y cgroups, lo que permite el aislamiento de procesos. En esta publicación, Scott van Kalken analiza estas dos principales tecnologías de Linux , que también sustentan los contenedores. Aprenda sobre estas tecnologías subyacentes y cómo crearlas.

Comparación del rendimiento de NGINX en entornos físicos y virtuales

Si bien hubo un crecimiento explosivo en la adopción de la nube pública debido a la pandemia de COVID-19, las empresas también están adoptando la nube híbrida, donde ejecutan cargas de trabajo tanto en nubes públicas como en las instalaciones. Para ayudarlo a determinar la solución óptima y más asequible que satisfaga sus necesidades de rendimiento y escalabilidad, proporcionamos una guía de dimensionamiento que compara el rendimiento de NGINX en los dos entornos.

En esta publicación, Amir Rawdat describe cómo probamos NGINX para llegar a los valores publicados en la guía de tallas. Dado que muchos de nuestros clientes también implementan aplicaciones en Kubernetes, también analizamos nuestras pruebas de NGINX Ingress Controller en la plataforma Rancher Kubernetes Engine (RKE) y analizamos cómo se comparan los resultados con NGINX ejecutándose en arquitecturas locales tradicionales.

Cómo simplificar la gestión del tráfico de entrada y salida de Kubernetes

Una de las formas en que una malla de servicios puede hacer que sea más complicado administrar un entorno de Kubernetes es cuando debe configurarse por separado del controlador de Ingress. Puede evitar estos problemas y ahorrar tiempo al integrar el controlador de ingreso F5 NGINX basado en NGINX Plus con F5 NGINX Service Mesh para controlar el tráfico mTLS de ingreso y egreso. En esta publicación, Kate Osborn cubre los pasos completos del video de demostración complementario.

Inicio de sesión único sencillo y robusto con OpenID Connect y el controlador de ingreso NGINX

Con el lanzamiento de NGINX Ingress Controller 1.10.0, nos complace anunciar una mejora importante: una vista previa de la tecnología de autenticación OpenID Connect (OIDC) . OIDC es la capa de identidad construida sobre el marco OAuth 2.0 que proporciona una solución de autenticación e inicio de sesión único (SSO) para aplicaciones modernas. Nuestra política OIDC es una solución SSO completa que permite a los usuarios autenticarse de forma segura con múltiples aplicações y servicios de Kubernetes. Es importante destacar que permite que las aplicaciones utilicen un proveedor de identidad externo (IdP) para autenticar a los usuarios y libera a las aplicaciones de tener que manejar nombres de usuario o contraseñas. Amir Rawdat te lo explica todo en esta popular publicación.

Implementación del controlador de ingreso NGINX en Amazon EKS: Cómo hicimos la prueba

Por último, pero no por ello menos importante, en nuestro resumen del blog de 2021, a principios de este año actualizamos nuestro resumen de la solución NGINX Ingress Controller con pautas de tamaño para Amazon Elastic Kubernetes Service (EKS). El resumen describe el rendimiento que puede esperar lograr con el controlador de ingreso NGINX ejecutándose en varios tipos de instancias en Amazon EKS, junto con el costo total de propiedad (TCO) mensual estimado. En esta publicación, Amir Rawdat vuelve a explicar cómo obtuvimos esos números , incluida toda la información que necesita para realizar sus propias pruebas similares.

Prueba NGINX

Hay pruebas gratuitas de 30 días disponibles para todas las soluciones comerciales mencionadas en esta publicación (¡y un par más!):

O comience con ofertas gratuitas y de código abierto:


"Esta publicación de blog puede hacer referencia a productos que ya no están disponibles o que ya no reciben soporte. Para obtener la información más actualizada sobre los productos y soluciones F5 NGINX disponibles, explore nuestra familia de productos NGINX . NGINX ahora es parte de F5. Todos los enlaces anteriores de NGINX.com redirigirán a contenido similar de NGINX en F5.com.