BLOG | NGINX

Les plus grands succès de 2021 sur le blog NGINX

NGINX-Partie-de-F5-horiz-black-type-RGB
Vignette de Scott De Buitléir
Scott De Buitléir
Publié le 22 décembre 2021

Alors que les turbulences causées par la pandémie de COVID-19 se sont poursuivies tout au long de l’année 2021, nous, chez NGINX, avons essayé de relever le défi et de continuer à avancer pour apporter des changements positifs pour notre communauté, nos partenaires et nos clients.

À l’approche de la fin de l’année, nous profitons de cette occasion pour revenir sur une sélection des articles de blog les plus importants et les plus populaires que nous avons publiés, tels que votés par vous, notre communauté. Lisez la suite pour découvrir les événements majeurs que nous avons couverts et pour vous tenir au courant des nouvelles et des sujets intéressants que vous avez peut-être manqués !

Comment choisir un maillage de services

À mesure que votre déploiement Kubernetes évolue, il peut être difficile de savoir quand un maillage de services apportera des avantages et pas seulement une complexité supplémentaire. Et une fois que vous savez que vous avez besoin d'un service mesh, choisir le bon n'est pas toujours simple non plus. Dans cet article, Jenn Gile fournit une liste de contrôle en six points pour déterminer si vous avez besoin d'un maillage de services, ainsi qu'un guide de conversation pour faciliter la séance de prise de décision stratégique que nous vous recommandons d'avoir avec votre équipe et vos parties prenantes pour savoir quel maillage de services vous convient le mieux.

NGINX et HAProxy : Tester l'expérience utilisateur dans le cloud

De nombreux tests de performances mesurent le débit maximal ou les requêtes par seconde (RPS), mais ces mesures ne donnent pas nécessairement une idée précise des performances sur les sites réels. Cela nous amène à l’observation selon laquelle ce qui compte le plus est de fournir des performances cohérentes et à faible latence à tous vos utilisateurs, même en cas de charge élevée. En comparant NGINX et HAProxy exécutés sur Amazon Elastic Compute Cloud (EC2) en tant que proxys inverses, Amir Rawdat a entrepris de faire deux choses :

  1. Déterminez le niveau de charge que chaque proxy peut gérer confortablement
  2. Collectez la distribution des percentiles de latence, qui, selon nous, est la mesure la plus directement corrélée à l'expérience utilisateur

Obtenez les résultats et tous les détails des tests .

Présentation de NGINX Instance Manager

NGINX peut réellement être considéré comme un couteau suisse™ qui accélère vos efforts de modernisation de l’infrastructure informatique et des application . Cette fonctionnalité polyvalente et de grande envergure peut toutefois conduire à de nombreuses instances NGINX réparties dans une organisation, parfois avec NGINX Open Source et NGINX Plus gérés par des groupes différents. Comment suivez-vous toutes les instances ? Comment vous assurez-vous qu’ils disposent de paramètres de configuration et de sécurité à jour ? C'est là qu'intervient F5 NGINX Instance Manager.

[ Éditeur – F5 NGINX Instance Manager est désormais Instance Manager , qui fait partie de F5 NGINX Management Suite.]

Idéal pour les utilisateurs DevOps qui sont des experts NGINX et ont beaucoup d'expérience avec les configurations NGINX, NGINX Instance Manager simplifie la gestion, la configuration et la visibilité de NGINX. Dans cet article, Karthik Krishnaswamy explique comment NGINX Instance Manager peut vous être utile .

Que sont les espaces de noms et les cgroups, et comment fonctionnent-ils ?

L'unité NGINX prend en charge à la fois les espaces de noms et les groupes de contrôle, ce qui permet l'isolation des processus. Dans cet article, Scott van Kalken examine ces deux principales technologies Linux , qui sous-tendent également les conteneurs. Découvrez ces technologies sous-jacentes et comment les créer.

Comparaison des performances de NGINX dans les environnements Bare Metal et virtuels

Alors que l’adoption du cloud public a connu une croissance explosive en raison de la pandémie de COVID-19, les entreprises adoptent également le cloud hybride, où elles exécutent des charges de travail à la fois dans des clouds publics et sur site. Pour vous aider à déterminer la solution optimale et la plus abordable qui répond à vos besoins de performances et d’évolutivité, nous fournissons un guide de dimensionnement qui compare les performances NGINX dans les deux environnements.

Dans cet article, Amir Rawdat décrit comment nous avons testé NGINX pour arriver aux valeurs publiées dans le guide des tailles. Étant donné que bon nombre de nos clients déploient également des applications dans Kubernetes, nous passons également en revue nos tests de NGINX Ingress Controller sur la plateforme Rancher Kubernetes Engine (RKE) et discutons de la manière dont les résultats se comparent à ceux de NGINX exécuté dans des architectures sur site traditionnelles.

Comment simplifier la gestion du trafic entrant et sortant de Kubernetes

L’une des façons dont un maillage de services peut réellement compliquer la gestion d’un environnement Kubernetes est lorsqu’il doit être configuré séparément du contrôleur Ingress. Vous pouvez éviter ces problèmes et gagner du temps en intégrant le contrôleur d’entrée F5 NGINX basé sur NGINX Plus avec F5 NGINX Service Mesh pour contrôler le trafic mTLS entrant et sortant. Dans cet article, Kate Osborn couvre les étapes complètes de la démonstration vidéo d'accompagnement.

Authentification unique simple et robuste avec OpenID Connect et NGINX Ingress Controller

Avec la sortie de NGINX Ingress Controller 1.10.0, nous avons été heureux d'annoncer une amélioration majeure : un aperçu technologique de l'authentification OpenID Connect (OIDC) . OIDC est la couche d’identité construite sur le framework OAuth 2.0 qui fournit une solution d’authentification et d’authentification unique (SSO) pour les applications modernes. Notre politique OIDC est une solution SSO à part entière permettant aux utilisateurs de s'authentifier en toute sécurité auprès de plusieurs applications et services Kubernetes. De manière significative, cela permet aux applications d’utiliser un fournisseur d’identité externe (IdP) pour authentifier les utilisateurs et libère les applications de la nécessité de gérer des noms d’utilisateur ou des mots de passe. Amir Rawdat vous explique tout dans cet article populaire.

Déploiement du contrôleur d'entrée NGINX sur Amazon EKS : Comment nous avons testé

Enfin, et ce n’est pas le moins important, dans notre tour d’horizon de 2021 du blog, nous avons mis à jour plus tôt cette année notre dossier de solution NGINX Ingress Controller avec des directives de dimensionnement pour Amazon Elastic Kubernetes Service (EKS). Le dossier décrit les performances que vous pouvez espérer obtenir avec le contrôleur d'entrée NGINX exécuté sur différents types d'instances dans Amazon EKS, ainsi que le coût total de possession (TCO) mensuel estimé. Dans cet article, Amir Rawdat revient pour expliquer comment nous sommes arrivés à ces chiffres , y compris toutes les informations dont vous avez besoin pour effectuer vos propres tests similaires.

Essayez NGINX

Des essais gratuits de 30 jours sont disponibles pour toutes les solutions commerciales mentionnées dans cet article (et quelques autres !) :

Ou lancez-vous avec des offres gratuites et open source :


« Cet article de blog peut faire référence à des produits qui ne sont plus disponibles et/ou qui ne sont plus pris en charge. Pour obtenir les informations les plus récentes sur les produits et solutions F5 NGINX disponibles, explorez notre famille de produits NGINX . NGINX fait désormais partie de F5. Tous les liens NGINX.com précédents redirigeront vers un contenu NGINX similaire sur F5.com."