À medida que a turbulência causada pela pandemia da COVID-19 continuou ao longo de 2021, nós da NGINX tentamos enfrentar o desafio e continuar avançando para fazer mudanças positivas para nossa comunidade, parceiros e clientes.
Aproximando-se do final do ano, aproveitamos esta oportunidade para relembrar uma seleção dos maiores e mais populares artigos de blog que publicamos, votados por vocês, nossa comunidade. Continue lendo para ver os principais eventos que cobrimos e para ficar por dentro de notícias e tópicos interessantes que você pode ter perdido!
À medida que sua implantação do Kubernetes amadurece, pode ser um desafio saber quando uma malha de serviço gerará benefícios e não apenas complexidade adicional. E quando você sabe que precisa de uma malha de serviço, escolher a correta também não é sempre fácil. Nesta postagem, Jenn Gile fornece uma lista de verificação de seis pontos para determinar se você precisa de uma malha de serviço e um guia de conversação para facilitar a sessão de tomada de decisão estratégica que recomendamos que você tenha com sua equipe e partes interessadas sobre qual malha de serviço é a certa para você.
Muitos benchmarks de desempenho medem o pico de rendimento ou solicitações por segundo (RPS), mas essas métricas podem não contar toda a história do desempenho em sites do mundo real. Isso nos leva à observação de que o mais importante é que você ofereça desempenho consistente e de baixa latência a todos os seus usuários, mesmo sob alta carga. Ao comparar o NGINX e o HAProxy em execução no Amazon Elastic Compute Cloud (EC2) como proxies reversos, Amir Rawdat decidiu fazer duas coisas:
Obtenha os resultados e todos os detalhes dos testes .
O NGINX realmente pode ser considerado um canivete suíço™ que acelera seus esforços de modernização de aplicativos e infraestrutura de TI. Essa funcionalidade ampla e versátil pode, no entanto, levar a muitas instâncias do NGINX espalhadas por uma organização, às vezes com o NGINX Open Source e o NGINX Plus gerenciados por grupos diferentes. Como você rastreia todas as instâncias? Como você garante que eles tenham configurações e configurações de segurança atualizadas ? É aí que entra o F5 NGINX Instance Manager.
[ Editor – O F5 NGINX Instance Manager agora é Instance Manager , parte do F5 NGINX Management Suite.]
Ideal para usuários de DevOps que são especialistas em NGINX e têm muita experiência com configurações NGINX, o NGINX Instance Manager simplifica o gerenciamento, a configuração e a visibilidade do NGINX. Nesta postagem, Karthik Krishnaswamy explica como o NGINX Instance Manager pode beneficiar você .
O NGINX Unit oferece suporte a namespaces e cgroups, o que permite o isolamento de processos. Nesta postagem, Scott van Kalken analisa essas duas principais tecnologias Linux , que também são a base dos contêineres. Aprenda sobre essas tecnologias subjacentes e como criá-las.
Embora tenha havido um crescimento explosivo na adoção da nuvem pública devido à pandemia da COVID-19, as empresas também estão adotando a nuvem híbrida, na qual executam cargas de trabalho em nuvens públicas e locais. Para ajudar você a determinar a solução ideal e mais acessível que atenda às suas necessidades de desempenho e dimensionamento, fornecemos um guia de dimensionamento que compara o desempenho do NGINX nos dois ambientes.
Nesta postagem, Amir Rawdat descreve como testamos o NGINX para chegar aos valores publicados no guia de dimensionamento. Como muitos dos nossos clientes também implantam aplicativos no Kubernetes, também analisamos nossos testes do NGINX Ingress Controller na plataforma Rancher Kubernetes Engine (RKE) e discutimos como os resultados se comparam ao NGINX executado em arquiteturas locais tradicionais.
Uma das maneiras pelas quais uma malha de serviço pode realmente tornar mais complicado o gerenciamento de um ambiente Kubernetes é quando ela deve ser configurada separadamente do controlador Ingress. Você pode evitar esses problemas – e economizar tempo – integrando o F5 NGINX Ingress Controller baseado no NGINX Plus com o F5 NGINX Service Mesh para controlar o tráfego mTLS de entrada e saída. Nesta postagem, Kate Osborn aborda todos os passos da demonstração em vídeo complementar.
Com o lançamento do NGINX Ingress Controller 1.10.0, ficamos felizes em anunciar uma grande melhoria: uma prévia da tecnologia de autenticação OpenID Connect (OIDC) . OIDC é a camada de identidade criada sobre a estrutura OAuth 2.0 que fornece uma solução de autenticação e logon único (SSO) para aplicativos modernos. Nossa política OIDC é uma solução SSO completa que permite que os usuários se autentiquem com segurança com vários aplicativos e serviços do Kubernetes. Significativamente, ele permite que os aplicativos usem um provedor de identidade externo (IdP) para autenticar usuários e libera os aplicativos da necessidade de manipular nomes de usuário ou senhas. Amir Rawdat explica tudo para você neste post popular.
Por último, mas não menos importante, em nosso resumo do blog de 2021, no início deste ano atualizamos nosso resumo da solução NGINX Ingress Controller com diretrizes de dimensionamento para o Amazon Elastic Kubernetes Service (EKS). O resumo descreve o desempenho que você pode esperar alcançar com o NGINX Ingress Controller em execução em vários tipos de instância no Amazon EKS, juntamente com o custo total de propriedade (TCO) mensal estimado. Nesta postagem, Amir Rawdat retorna para explicar como chegamos a esses números , incluindo todas as informações necessárias para você fazer testes semelhantes.
Testes gratuitos de 30 dias estão disponíveis para todas as soluções comerciais mencionadas neste post (e mais algumas!):
Ou comece com ofertas gratuitas e de código aberto:
"Esta postagem do blog pode fazer referência a produtos que não estão mais disponíveis e/ou não têm mais suporte. Para obter as informações mais atualizadas sobre os produtos e soluções F5 NGINX disponíveis, explore nossa família de produtos NGINX . O NGINX agora faz parte do F5. Todos os links anteriores do NGINX.com redirecionarão para conteúdo semelhante do NGINX no F5.com."