Éliminez les ralentissements de la distribution des applications grâce aux services d'applications natifs des conteneurs

Les cycles de vie des applications conteneurisées sont dynamiques et transitoires, des caractéristiques qui ne se combinent pas bien avec les politiques de sécurité et de réseau traditionnelles. F5 NGINX a une solution.

Le défi ? Prise en charge sécurisée des applications restreintes

L'utilisation de conteneurs vous permet de développer des applications cloud natives avec une méthodologie « écrire une fois, exécuter n'importe où ». Mais cela ne se produit pas dans le vide. Les applications conteneurisées ont besoin de mécanismes de distribution d'applications natifs pour offrir des performances optimales. S'en tenir à la configuration traditionnellement statique et gérée par l'informatique est en contradiction avec l'agilité dont vous avez besoin pour suivre le rythme des montées et des descentes des conteneurs de microservices qui peuvent se produire minute par minute.

Voici ce que vous pouvez faire

Lorsque vous utilisez une solution basée sur des microservices, vous avez besoin de solutions de sécurité et de performances des applications alignées sur cette architecture dynamique. Vous devez être en mesure de gérer vos services d’application sous forme de code et de les intégrer dans le flux de travail CI/CD. Vous avez besoin de services de distribution d’applications fiables intégrés au plan de gestion de la plate-forme de conteneurs.

Comment F5 peut vous aider

Les services de diffusion d'applications F5 NGINX sont conçus et optimisés pour les environnements de conteneurs, ce qui en fait un choix idéal lors de l'exploitation de plates-formes de conteneurs telles que Kubernetes et Red Hat OpenShift. De plus, la standardisation sur NGINX pour les environnements conteneurisés et non conteneurisés réduit la complexité et garantit une plus grande cohérence et fiabilité.

Contrôleur d'entrée NGINX Kubernetes

En tant que contrôleur d'entrée principal pour Kubernetes1, NGINX Ingress Controller fournit une configuration automatisée pour les équilibreurs de charge NGINX afin de garantir que les applications dans les clusters Kubernetes sont fournies de manière fiable et sécurisée sans compromettre les performances.

Routeur NGINX OpenShift

En tant que contrôleur d'entrée principal pour Kubernetes1, NGINX Ingress Controller fournit une configuration automatisée pour les équilibreurs de charge NGINX afin de garantir que les applications dans les clusters Kubernetes sont fournies de manière fiable et sécurisée sans compromettre les performances.

Guide de solutions

Défi

Les organisations utilisent des plateformes de conteneurs telles que Kubernetes ou RedHat OpenShift en combinaison avec des méthodologies de développement agiles pour accélérer le développement et le déploiement d'applications.

Les conteneurs sont des composants d'infrastructure fondamentaux pour le développement d'applications cloud natives, car ils offrent une flexibilité et une portabilité qui permettent aux développeurs « d'écrire une fois, d'exécuter n'importe où ». Les conteneurs réduisent les dépendances et permettent une mise à l’échelle au niveau des composants, ce qui est essentiel pour moderniser les applications à l’aide de microservices.

Vos applications conteneurisées ont besoin de mécanismes de distribution d'applications natifs pour offrir des performances optimales. Les développeurs et les équipes DevOps ont besoin d'une solution de distribution d'applications légère et indépendante du cloud pour les environnements Kubernetes et OpenShift.

Mais une approche traditionnelle avec une configuration statique modifiée uniquement par l'informatique entre en conflit avec le paradigme agile des conteneurs où de nouveaux conteneurs de microservices peuvent être créés dynamiquement pendant quelques minutes seulement pour répondre à un pic de demande ou déployer une mise à niveau en remplaçant simplement les anciens conteneurs par de nouveaux.

Comment vous assurez-vous que vos déploiements de services d’application suivent vos cycles de publication rapides dans des environnements conteneurisés ? Téléchargez le guide de solution pour obtenir tous les détails .

Solution

Vous avez besoin de services de distribution d’applications fiables intégrés au plan de gestion de la plate-forme de conteneurs. Vous pouvez mieux prendre en charge vos applications conteneurisées avec NGINX, l'application la plus largement extraite et la plus étoilée sur DockerHub, avec plus d'un milliard de téléchargements.

Et avec 64 % du marché, NGINX est également de loin le contrôleur d'entrée Kubernetes le plus populaire, selon la Cloud Native Computing Foundation . NGINX prend également en charge les environnements Red Hat OpenShift, une plate-forme d'applications de conteneurs construite sur Kubernetes. 

Composants

Pour fournir des services d'application multicloud cohérents et puissants dans des environnements conteneurisés, exploitez les composants NGINX suivants. 

  • Contrôleur d'entrée NGINX pour Kubernetes
    DevOps peut fournir un accès externe à ses environnements Kubernetes à l'aide du contrôleur d'entrée NGINX pour Kubernetes. Cela fournit des services de livraison de niveau entreprise pour les applications Kubernetes, notamment des métriques en temps réel, la persistance des sessions, des contrôles de santé actifs et la validation JWT.

    La version NGINX Plus permet également aux utilisateurs d'exécuter une reconfiguration non perturbatrice, ce qui garantit des performances d'application et une utilisation des ressources cohérentes. Il est conçu et maintenu selon une norme de production supportable, et il offre cohérence et stabilité, préservant ainsi la compatibilité ascendante.

  • Routeur NGINX Plus pour OpenShift
    Pour les environnements OpenShift, NGINX prend entièrement en charge les fonctionnalités définies par la ressource Open Shift Router.

    Le routeur agit comme point d’entrée pour toutes les requêtes externes arrivant aux applications exécutées sur OpenShift, ce qui en fait l’un des éléments les plus critiques de la plateforme. NGINX Router est intégré à OpenShift via le logiciel Template Router, le même logiciel qui sous-tend l'implémentation du routeur par défaut.

Conclusion

Peu importe où elles s'exécutent, les applications peuvent bénéficier des performances offertes par NGINX.

Avec des solutions conçues pour les environnements Kubernetes et OpenShift, les applications exécutées sur des plateformes de conteneurs dynamiques peuvent obtenir les services dont elles ont besoin configurés à la demande, par des outils natifs du système de gestion des conteneurs. 

Découvrez-en davantage sur l’ avenir de la plateforme d’applications NGINX et sur la manière dont F5 aide les entreprises à faire évoluer leurs applications pour l’ère numérique.

Contenu associé
WEBINAIRE

Contrôleur d'entrée NGINX

Regardez ce webinaire pour en savoir plus sur les derniers développements de NGINX Ingress Controller Release 1.5.0.

Regardez le webinaire ›

TÉMOIGNAGE CLIENT

Technologies LKQD et NGINX

LKQD Technologies réduit la complexité opérationnelle avec le contrôleur d'entrée NGINX.

Lire leur histoire ›

BLOG

Microservices

Trouvez les meilleures stratégies de conception de microservices et apprenez comment commencer à refactoriser des applications monolithiques en microservices.

Lire le blog ›

LIVRE ÉLECTRONIQUE

Mise en réseau de conteneurs

Obtenez ce guide pour explorer les modes de mise en réseau Docker et découvrir comment Kubernetes aborde la mise en réseau des conteneurs.

Obtenez le livre électronique ›

LIVRE ÉLECTRONIQUE

DevOps natif dans le cloud

Téléchargez l'eBook pour découvrir comment appliquer les pratiques DevOps standard du secteur à Kubernetes dans un contexte cloud natif.

Obtenez le livre électronique ›

BLOG

Les conteneurs sont essentiels à une stratégie multi-cloud

Ce n'est pas une bonne idée de catégoriser les conteneurs dans un rôle restreint qui implique uniquement des microservices, car ils sont capables de faire bien plus. 

Lire le blog ›

GUIDE DE SOLUTIONS

Offrez des performances optimales à vos applications conteneurisées

Les applications conteneurisées nécessitent une infrastructure de distribution d'applications conçue pour les conteneurs.

Lire le guide ›