« D’ici 2012, 20 % des entreprises ne posséderont aucun équipement informatique. »1 Même si le besoin de matériel ne disparaîtra pas complètement, la possession de matériel traverse une transition : La virtualisation, les avantages du coût total de possession (TCO), l'ouverture permettant aux utilisateurs d'exécuter leurs machines personnelles sur les réseaux d'entreprise et l'avènement du cloud computing sont autant de facteurs qui favorisent le mouvement de réduction des actifs matériels. Même si de nombreux services informatiques n’ont pas encore pleinement exploité tout le potentiel du cloud computing, on comprend de plus en plus que le cloud computing peut permettre de réaliser des économies de coûts, notamment une réduction des dépenses d’investissement. Le cloud computing offre également la possibilité de fournir des applications, des systèmes et des services professionnels critiques dans le monde entier avec un degré élevé de disponibilité, ce qui permet une main-d'œuvre plus productive.
Il existe trois principaux modèles de déploiement pour le cloud : public (ressources provisionnées et disponibles sur Internet), privé (fourniture interne de ressources via l'intranet et la virtualisation) et hybride (une combinaison de modèles publics et privés). Au sein de ces modèles de déploiement, différents services de livraison fournissent l’infrastructure, la plateforme et la livraison de logiciels. Bien qu’il existe également une certaine confusion (et un désaccord) sur les paramètres de ces services, en particulier compte tenu de l’évolution continue du cloud, la plupart des acteurs du secteur reconnaissent trois modèles de prestation de services :
Infrastructure en tant que service (IaaS) : IaaS fournit une infrastructure informatique en tant que service. Au lieu d’acheter du matériel et d’autres composants d’infrastructure, les clients utilisent une certaine forme de virtualisation pour accéder aux ressources externalisées. La consommation étant à la demande, les coûts reflètent directement la quantité utilisée.
Plateforme en tant que service (PaaS) : PaaS fournit des plates-formes de calcul et de développement (par exemple, Microsoft .NET, Java EE, applications Google) en tant que service, offrant aux utilisateurs la possibilité de déployer et de développer des applications sans dépenses matérielles et logicielles importantes ni temps de gestion. Étant donné que la plate-forme de déploiement est très spécifique, comme .NET, il peut y avoir des limitations quant aux types d'applications pouvant être prises en charge. Par exemple, Google App Engine ne prend en charge que les applications écrites à l'aide de Python tandis que Heroku prend en charge le développement d'applications Ruby on Rails.
Logiciel en tant que service (SaaS) : En fournissant des applications en tant que service, le SaaS offre aux clients des applications pré-packagées/pré-construites via un navigateur Web standard. Avec le SaaS, les clients peuvent éviter l’installation et la gestion de logiciels sur leurs propres ordinateurs et bénéficier en outre de mises à jour logicielles centralisées et automatiques ainsi que de coûts réduits. Les clients n’ont pas besoin de consacrer de précieuses ressources au déploiement ou à la gestion des logiciels.
Quel que soit le service cloud (IaaS, PaaS ou SaaS (ou une combinaison des deux)) choisi par les clients ou les fournisseurs de services, la disponibilité de ce service pour les utilisateurs est primordiale, en particulier si les accords de niveau de service (SLA) font partie du contrat. Même avec d’énormes économies de coûts, il n’y a aucun avantage pour l’utilisateur ou l’entreprise si une application ou un composant d’infrastructure n’est pas disponible ou lent.
Au cours de l’année dernière, le cloud computing est rapidement passé d’un modèle de distribution peu compris à une ressource précieuse pour les services informatiques. Les services informatiques n’ont pas besoin d’un expert du cloud dans leur personnel, car de nombreuses offres et services sont soit pré-établis, soit similaires à ce qui est traditionnellement déployé en interne. En fait, la principale différence est que les offres et services ne sont pas situés en interne, mais à l’extérieur de l’organisation, dans un ou plusieurs centres de données hors site ou dans le cloud.
Alors que le battage médiatique autour du cloud s’est transformé en opportunité d’économies de coûts, d’efficacité opérationnelle et d’agilité informatique, les organisations discutent, testent et déploient une certaine forme de cloud computing. De nombreux services informatiques ont initialement migré vers le cloud avec des applications non critiques et, après avoir obtenu des résultats positifs et observé la maturation rapide du cloud computing, commencent à déplacer leurs applications critiques pour l'entreprise. Quel que soit le modèle de déploiement, une grande partie des investissements initiaux pour le matériel, les logiciels, la bande passante, les licences, etc. est réduite, ce qui permet aux unités commerciales et aux services informatiques de se concentrer sur les services et les flux de travail qui servent le mieux l'entreprise.
Tout comme les entreprises, le cloud est dynamique par nature ; par conséquent, l’intégration et le support du cloud computing doivent être flexibles. Les solutions F5® se concentrent généralement sur la tâche de livraison d’applications. Étant donné que l’objectif de tout déploiement cloud, quel que soit le modèle ou l’emplacement, est de fournir des applications de la manière la plus efficace, la plus agile et la plus sécurisée possible, toutes les solutions F5 peuvent s’intégrer à l’infrastructure cloud et améliorer la fourniture d’applications. Le plan de contrôle dynamique de l'architecture cloud nécessite la capacité d'intercepter, d'interpréter et d'indiquer où les données doivent aller et doit disposer de l'infrastructure nécessaire, aux points de contrôle stratégiques, pour permettre des décisions rapides et intelligentes et garantir une disponibilité constante.
Les produits et solutions F5 offrent l’évolutivité, l’extensibilité, l’adaptabilité, la facilité de gestion, la sécurité et les performances en temps réel requises par un plan de contrôle dynamique. Étant donné que le cloud existe pratiquement partout, la diffusion contrôlée et contextuelle des applications devient primordiale en matière de disponibilité. Les produits F5 tels que BIG-IP® Local Traffic Manager™ (LTM), BIG-IP® Edge Gateway™ et BIG-IP® Global Traffic Manager™ (GTM) aident les clients et les fournisseurs de services à créer un environnement de cloud computing qui répond à des besoins spécifiques. Les produits F5 fournissent des points de contrôle intelligents et stratégiques via des proxys, des politiques et des services dans une infrastructure de distribution modulaire unique, capable de gérer le volume élevé de trafic associé au cloud computing. De plus, comme les solutions F5 peuvent être déployées sur une large gamme de plates-formes matérielles, elles contribuent à garantir la disponibilité.
La nature à la demande, élastique, évolutive et personnalisable du cloud doit être prise en compte lors du déploiement des architectures cloud. De nombreux clients différents peuvent accéder aux mêmes applications back-end, mais chaque client s'attend à ce que seule son application soit correctement fournie aux utilisateurs. Pour garantir que plusieurs instances de la même application sont fournies de manière évolutive, il faut à la fois un équilibrage de charge et une certaine forme de virtualisation du serveur. En tant que contrôleur de distribution d'applications (ADC), BIG-IP LTM représente le summum de l'équilibrage de charge. BIG-IP LTM peut virtualiser les systèmes back-end et s'intégrer en profondeur au réseau et aux serveurs d'applications pour garantir la plus haute disponibilité d'une ressource demandée. Chaque demande est inspectée à l’aide d’un certain nombre de mesures, puis acheminée vers le meilleur serveur disponible. Il est essentiel de savoir comment un ADC peut améliorer votre architecture de distribution d’applications avant le déploiement. De nombreuses applications affichent des performances exceptionnelles lors de la phase de test, mais s'effondrent dès leur mise en ligne. En ajoutant BIG-IP® Local Traffic Manager™ (LTM) Virtual Edition (VE) à votre infrastructure de développement, vous pouvez créer, tester et déployer votre code avec les améliorations ADC dès le départ. En fournissant une plate-forme programmable et adaptable, BIG-IP LTM permet l'évolutivité nécessaire dans le cloud et la disponibilité nécessaire à l'application particulière fournie depuis le cloud.
La disponibilité est cruciale. Cependant, à moins que les applications dans le cloud ne soient livrées sans délai, en particulier lorsqu’elles transitent par des connexions sensibles à la latence, les utilisateurs seront frustrés d’attendre des ressources « disponibles ». Utilisant la technologie SSL, F5 BIG-IP® Edge Gateway™ est un contrôleur hautes performances, offrant un accès sécurisé et accéléré, quel que soit l'endroit où se trouve un utilisateur dans le monde. Avec le module produit BIG-IP® WebAccelerator™ et le module d'optimisation WAN BIG-IP®™, les applications Web sont fournies avec une vitesse similaire à celle du LAN et les transferts de fichiers sont fluides, même sur des lignes à latence élevée. Grâce au cache, à la compression adaptative et à la déduplication des données, l’accès aux applications et aux ressources nécessaires est si rapide que les utilisateurs pourraient tout aussi bien être connectés directement à un réseau local. Si d’autres périphériques BIG-IP sont déployés dans l’ensemble de l’infrastructure, les administrateurs peuvent créer des tunnels optimisés sécurisés entre les périphériques BIG-IP, créant ainsi une dorsale privée instantanée. Lorsqu'un utilisateur initie une connexion sécurisée depuis son client vers BIG-IP, et qu'il existe un tunnel sécurisé entre les appareils BIG-IP, vous obtenez un double cryptage avec une optimisation ultime et une haute disponibilité, le tout avec les appareils BIG-IP.
Des scénarios de déploiement cloud supplémentaires tels que la reprise après sinistre ou les pics de trafic Web saisonniers peuvent nécessiter l'ajout d'un équilibreur de charge de serveur global à l'architecture. BIG-IP GTM, qui repose sur la même architecture TMOS que BIG-IP LTM, utilise la reconnaissance des applications, la géolocalisation et les informations sur l'état du réseau pour acheminer les requêtes vers l'infrastructure cloud qui répondra le mieux. BIG-IP GTM peut également déterminer la géolocalisation des utilisateurs en fonction de l'adresse IP et les acheminer vers le cloud ou le centre de données le plus proche, le tout sans interaction de l'utilisateur. Dans des situations extrêmes, comme une panne d’un centre de données, BIG-IP GTM saura déjà si l’emplacement principal d’un utilisateur n’est pas disponible et il dirigera automatiquement l’utilisateur vers l’emplacement d’intervention. BIG-IP GTM offre une disponibilité globale des applications, que vous choisissiez IaaS, Paas ou SaaS.
Le cloud computing, tout en continuant d’évoluer dans toutes ses itérations, peut offrir à l’informatique une alternative puissante pour une fourniture efficace d’applications, d’infrastructures et de plateformes. Alors que les entreprises continuent d’adopter le cloud comme une option avantageuse de distribution d’applications, les principes de base restent les mêmes : évolutivité, flexibilité et disponibilité pour permettre une infrastructure plus agile, une mise sur le marché plus rapide, une main-d’œuvre plus productive et un coût total de possession plus faible ainsi que des utilisateurs plus satisfaits. Même si le cloud computing dans toutes ses variantes est encore en évolution, F5 fournit un ensemble de solutions flexibles et unifiées pour répondre aux besoins de fourniture de cloud aujourd'hui et à l'avenir afin de garantir que l'environnement de cloud computing soit toujours rapide, sécurisé et hautement disponible.
Les dernières nouveautés en matière de renseignement sur les menaces applicatives.
La communauté F5 pour les forums de discussion et les articles d'experts.