La promesse de l’IA générative d’accroître la productivité et l’autonomisation des entreprises a retenu l’attention des chefs d’entreprise de nombreux secteurs : Selon le rapport F5 2025 State of Application Strategy , pratiquement tous les répondants (99 %) ont déclaré se sentir à l’aise avec l’utilisation de l’IA non seulement pour soutenir la prise de décision, mais aussi pour automatiser au moins une fonction opérationnelle.
« Les organisations du monde entier s'engagent dans un processus accéléré de déploiement de l'IA générative et d'autres technologies émergentes pour transformer leur façon de travailler, d'innover et d'interagir avec leurs clients », a déclaré Kunal Anand, directeur de l'innovation chez F5.
Cependant, les modèles d’IA génératifs standard basés sur des modèles de langage à grande échelle (LLM) disponibles dans le commerce manquent souvent d’informations à jour et d’intelligence contextuelle pour jouer un rôle stratégique et fiable dans l’environnement commercial dynamique d’aujourd’hui, où l’accès aux données en temps réel, l’expertise spécifique au domaine et la prise de décision précise sont essentiels au succès.
Les organisations cherchant à intégrer des applications d'IA générative à une source d'informations plus à jour, plus précises et spécifiques au domaine déploient la génération augmentée par récupération (RAG), un cadre d'IA qui combine des approches basées sur la récupération et génératives pour améliorer la qualité et la précision des réponses générées par l'IA.
La mise en œuvre réussie de RAG dans une infrastructure d’IA d’entreprise n’est pas une simple opération plug-and-play. RAG nécessite l’orchestration de plusieurs composants et technologies technologiques et constitue un excellent exemple de la manière dont les solutions d’IA d’entreprise nécessitent un écosystème ouvert et collaboratif de fournisseurs de technologies, de partenaires d’infrastructure et de partenaires de distribution pour réussir.
Le déploiement de RAG implique plusieurs fournisseurs, notamment des fournisseurs de stockage de données, de plates-formes de conteneurs, de LLM, d'outils de gestion du trafic, d'API et d'infrastructures back-end, etc. L’IA d’entreprise est véritablement un sport d’équipe, et chez F5, nous reconnaissons que de nombreux acteurs doivent s’unir pour rendre l’IA à grande échelle possible pour nos clients. Le succès nécessite la puissance d’un réseau collaboratif qui comprend des fournisseurs de technologie pour fournir les meilleurs composants et logiciels de leur catégorie, des partenaires de distribution pour traduire les outils en résultats commerciaux et un état d’esprit qui considère l’IA non pas comme un produit, mais comme un écosystème de solutions.
F5 et Red Hat OpenShift AI fournissent une base robuste et unifiée pour le déploiement de RAG dans les LLM, répondant aux complexités importantes de sécurité et de gestion du trafic impliquées dans l'intégration de données provenant de plusieurs sources dans un système d'IA génératif. Red Hat et F5 ont une longue histoire de partenariat technologique , et la collaboration actuelle des entreprises offre une plate-forme robuste, protégée et évolutive pour les initiatives axées sur l'IA, y compris l'intégration de RAG dans les LLM existants.
F5 et Red Hat sont des leaders reconnus : F5 a été nommée l'une des 25 « entreprises d'IA les plus en vogue pour les centres de données et les périphériques » par CRN, citant la « plate-forme de sécurité et de fourniture application tout-en-un de F5… pour aider les entreprises à répondre aux exigences de sécurité des réseaux multicloud, de l'IA et des API ». Red Hat est reconnu comme un leader des solutions d'entreprise open source par Dataquest, déclarant que son « innovation open source définira la prochaine ère de l'informatique d'entreprise ».
La combinaison des technologies avancées de sécurité et de gestion du trafic de F5 et de Red Hat OpenShift AI , une plate-forme de développement application d'IA avancée, contribue à établir une structure plus sécurisée et évolutive pour les initiatives axées sur l'IA. Les organisations peuvent déployer en toute confiance leurs applications d’IA, sachant qu’elles sont protégées contre les cybermenaces en constante évolution et capables de répondre aux exigences exigeantes des charges de travail d’IA modernes.
Red Hat et F5 et son écosystème de partenaires technologiques continueront de travailler ensemble pour aider les clients à connecter et à sécuriser leurs applications et API dans des environnements hybrides complexes. Alors que les organisations explorent le potentiel de l’IA, elles peuvent compter sur des fournisseurs de confiance comme Red Hat et F5 pour fournir une plate-forme cohérente et unifiée afin de maintenir les environnements d’IA gérables, rentables et sécurisés, favorisant ainsi un environnement où l’innovation et la sécurité vont de pair.
Le RAG est de plus en plus essentiel pour les applications d'IA générative de niveau entreprise, et le marché du RAG est sur le point de connaître une croissance substantielle dans les années à venir, avec un taux de croissance annuel composé (TCAC) de 44,7 % de 2024 à 2030, atteignant potentiellement 11,03 milliards de dollars d'ici 2030.
Bien que RAG puisse grandement améliorer les résultats des applications d'IA génératives, le déploiement de RAG dans les LLM n'est pas simple, car il augmente considérablement la complexité du système et les risques de sécurité en raison du fait que les composants de données supplémentaires de RAG existent dans plusieurs environnements numériques et bases de connaissances externes. Les connexions réseau nécessaires pour transmettre les demandes de récupération et les réponses de données augmentées entraînent des risques de sécurité et de fuite de données et nécessitent des contrôles d'accès et des mécanismes de cryptage rigoureux pour protéger les données sensibles.
L'intégration de Red Hat OpenShift AI avec F5 Distributed Cloud Services et F5 BIG-IP Next pour Kubernetes fournit un ensemble de services de base qui offrent des technologies avancées de sécurité et de gestion du trafic pour prendre en charge et protéger plusieurs cas d'utilisation RAG.
Les services cloud distribués sont des services de sécurité, de mise en réseau et de gestion des applications basés sur SaaS qui permettent aux clients de déployer, de sécuriser et d'exploiter leurs applications dans un environnement cloud natif partout où ils en ont besoin : dans le centre de données, dans des environnements multicloud, ou sur le réseau ou à la périphérie de l'entreprise.
À son tour, BIG-IP Next for Kubernetes optimise la gestion et la distribution du trafic sur les clusters de traitement d'IA, garantissant une communication API évolutive et efficace pour prendre en charge les charges de travail basées sur RAG, garantissant des flux de données fiables et performants sans dégradation des performances.
L'annonce récente de Meta concernant son troupeau de LLM Llama 4 , avec Llama 4 Scout doté d'une fenêtre de contexte de 10 millions de jetons, a suscité des commentaires selon lesquels des fenêtres de contexte étendues comme celles-ci pourraient bientôt rendre RAG obsolète. Cependant, les LLM de Llama 4 sont pré-entraînés et autonomes, sans accès en temps réel aux données externes ou privées, sauf s'ils sont explicitement conçus pour ces fonctionnalités. À l’inverse, RAG permet aux modèles d’extraire et d’intégrer les informations les plus récentes et les plus pertinentes à partir de vastes magasins de données en temps réel, garantissant que les résultats de l’IA sont à la fois précis et contextuellement pertinents. F5 estime que RAG continuera d’être un mécanisme d’IA générative fondamental car il s’adapte mieux à la nature dynamique et interactive des flux de travail de l’IA.
Déploiement de services cloud distribués et de BIG-IP Next pour Kubernetes sur Red Hat OpenShift AI crée une solution de sécurité renforcée pour protéger les charges de travail RAG. La plateforme commune F5 et Red Hat améliore la fiabilité et l'évolutivité de RAG, fournissant une base facile à gérer pour les solutions d'IA générative optimisées par RAG qui offrent une précision et une pertinence accrues pour de meilleurs résultats et une meilleure expérience utilisateur.
Pour plus d'informations, lisez la présentation de la solution . Et si vous prévoyez d'être présent au Red Hat Summit de cette année, veuillez assister à une session F5.