Lori MacVittie, ingénieure distinguée
Laurent Quérel, Ingénieur émérite
Oscar Spencer, ingénieur principal
Ken Arora, ingénieur distingué
Kunal Anand, directeur de l'innovation
James Hendergart, Sr. Réal. Recherche technologique
Si l’IA générative a certainement eu l’un des plus grands impacts sur l’entreprise en 2024, ce n’est pas la seule tendance ou technologie à faire des vagues. Un tourbillon de coûts et de complexité entraîne le rapatriement des charges de travail du cloud public, notamment du stockage et des données. Il ne fait aucun doute que ce mouvement est également motivé par la nécessité de permettre aux données d’entreprise de tirer parti des promesses de l’IA.
Les entreprises disposent alors d’un parc informatique hybride réparti entre le cloud public, les ressources sur site et edge computing. Même si nous prévoyons des changements importants dans les charges de travail du cloud public vers les locaux, nous ne pensons pas que les entreprises se lanceront à fond dans un quelconque emplacement. Ils resteront ce qu’ils ont été, résolument hybrides.
Cela laisse l’entreprise avec des défis importants pour standardiser la sécurité, la livraison et les opérations dans des environnements disparates. L’éventail déroutant d’API et d’outils demeure une menace persistante pour la stabilité et l’échelle des entreprises numériques.
C’est dans ce contexte que F5 explore les technologies et la manière dont elles pourraient avoir un impact sur l’entreprise et, par la suite, l’impact sur la fourniture et la sécurité des application . Les conséquences éclairent nos plans, notre stratégie et l’exploration plus approfondie des technologies émergentes. Dans cette perspective, un groupe restreint d’experts en technologie F5 offre son point de vue sur les cinq technologies clés qui, selon nous, auront le plus grand impact sur l’entreprise et, par conséquent, sur la fourniture application en 2025.
Cette réalité est à l’origine de la première de nos technologies à surveiller en 2025, celle de WebAssembly (Wasm). Wasm offre un chemin vers la portabilité à travers le parc multicloud hybride, offrant la possibilité de déployer et d'exécuter des applications partout où un environnement d'exécution Wasm peut fonctionner. Mais Wasm est plus qu’une simple manifestation de la promesse de portabilité croisée du code. Il offre des avantages en termes de performances et de sécurité tout en ouvrant de nouvelles possibilités pour enrichir les fonctionnalités des applications basées sur un navigateur.
Oscar Spencer, ingénieur principal, explique :
Il n’est pas prévu que WebAssembly dans le navigateur subisse des changements drastiques tout au long de 2025. La mise à jour la plus importante est la prise en charge continue de WebAssembly Garbage Collection (GC), qui a déjà été intégré à Chrome. Cela profitera aux langages comme Dart et Kotlin qui s’appuient fortement sur GC et cherchent à étendre leur présence dans les environnements de navigateur. Il existe également un potentiel d’amélioration dans l’utilisation de Python dans les navigateurs, même s’il est encore trop tôt pour prédire l’impact total.
Les développements les plus importants se produisent toutefois en dehors du navigateur avec la sortie de WASI (WebAssembly System Interface) Preview 3. Cette mise à jour introduit l'asynchrone et les flux, résolvant un problème majeur avec le streaming de données dans divers contextes, tels que les proxys. WASI Preview 3 fournit des méthodes efficaces pour gérer le mouvement des données entrant et sortant des modules Wasm et permet un contrôle précis de la gestion des données, comme la modification des en-têtes sans traiter l'intégralité du corps des requêtes. De plus, l'introduction de l'asynchrone améliorera la composabilité entre les langages, permettant des interactions transparentes entre le code asynchrone et synchrone, particulièrement bénéfique pour les langages natifs Wasm. À mesure que les normes WASI se stabilisent, nous pouvons nous attendre à une augmentation significative de l’adoption de Wasm, offrant aux développeurs des outils robustes et une plate-forme fiable pour s’appuyer sur ces avancées.
En supposant que Wasm puisse résoudre certains des problèmes de portabilité inhérents aux technologies précédentes, cela déplacerait les problèmes de portabilité auxquels 95 % des organisations sont confrontées aujourd'hui vers d'autres couches critiques de la pile technologique informatique, telles que les opérations.
La course pour relever ce défi est menée par l’IA générative et par l’avenir de plus en plus réel qu’est l’AIOps. Cette vision fantastique des opérations (changements et politiques pilotés par des analyses basées sur l’IA et éclairées par une observabilité complète) se rapproche chaque jour davantage de la réalité grâce à l’incroyable vitesse d’évolution de l’IA générative.
En moins d’un an, des agents sont apparus pour remplacer les fonctions de l’IA. Surnommée Agentic AI, cette capacité est sur le point non seulement de remodeler les opérations, mais également de remplacer des marchés entiers de logiciels d'entreprise. Il suffit de regarder l’utilisation de l’IA pour automatiser les flux de travail qui ont été dominés par le SaaS pendant près de deux décennies pour voir à quel point cette capacité sera disruptive.
Laurent Quérel, Ingénieur émérite explique :
Les agents de codage autonomes sont sur le point de révolutionner le développement de logiciels en automatisant des tâches clés telles que la génération de code, les tests et l'optimisation. Ces agents rationaliseront considérablement le processus de développement, réduisant les efforts manuels et accélérant les délais des projets. Parallèlement, l’émergence des grands agents multimodaux (LMA) étendra les capacités de l’IA au-delà de la recherche textuelle à des interactions plus complexes. Ces agents interagiront avec les pages Web et extrairont des informations de divers formats, notamment du texte, des images et des vidéos, améliorant ainsi la manière dont nous accédons au contenu en ligne et le traitons.
À mesure que les agents d’IA remodèlent Internet, nous assisterons au développement d’infrastructures de navigation spécifiques aux agents, conçues pour faciliter des interactions sécurisées et efficaces avec les sites Web. Ce changement pourrait perturber des secteurs comme le commerce électronique en automatisant des tâches Web complexes, conduisant à des expériences en ligne plus personnalisées et interactives. Cependant, à mesure que ces agents s’intègrent davantage dans la vie quotidienne, de nouveaux protocoles et réglementations de sécurité seront essentiels pour gérer les problèmes liés à l’authentification de l’IA, à la confidentialité des données et aux éventuelles utilisations abusives. D’ici 2028, on s’attend à ce qu’une part importante des logiciels d’entreprise intègrent des agents d’IA, transformant les processus de travail et permettant une prise de décision en temps réel grâce à une génération de jetons plus rapide dans les flux de travail itératifs. Cette évolution conduira également à la création de nouveaux outils et plateformes pour le développement Web piloté par agents, marquant ainsi une étape importante dans le paysage numérique.
Mais la vérité est que pour exploiter pleinement les avantages de l’IA, il faut des données, et en grande quantité. Un défi de taille étant donné que près de la moitié (47 %) des organisations admettent n’avoir aucune stratégie de données en place pour l’IA . Ce n’est pas un défi trivial. La quantité de données détenues par une organisation (métriques structurées, non structurées et en temps réel) est ahurissante. Le simple catalogage de ces données nécessite un investissement important.
Ajoutez à cela les préoccupations en matière de sécurité dues à l’augmentation spectaculaire des surfaces d’attaque, les nouvelles réglementations en matière de confidentialité et de conformité des données, ainsi que l’introduction de nouvelles sources de données et de nouveaux vecteurs de menace, et vous obtenez une tempête parfaite pour l’essor de technologies de classification de données robustes et en temps réel. En d’autres termes, les modèles d’IA génératifs devraient surpasser les systèmes traditionnels basés sur des règles dans la détection et la classification des données d’entreprise.
James Hendergart, Sr. Réal. Technology Research explique :
La classification des données a gagné en importance en 2024 en raison de plusieurs tendances convergentes. L’explosion des données, des appareils et des applications, ainsi que la transformation numérique en cours, ont considérablement augmenté la surface d’attaque des cybermenaces. Cette augmentation des vulnérabilités, associée à des violations de données persistantes, a souligné le besoin crucial d’une protection robuste des données. Dans le même temps, l’expansion des réglementations visant à protéger la confidentialité des données et à garantir la conformité a poussé les organisations à donner la priorité à la classification des données, car la classification est le point de départ de la confidentialité. En outre, l’essor de l’IA générative a introduit de nouvelles sources de données et de nouveaux vecteurs d’attaque, ajoutant de la complexité aux défis de sécurité des données .
Environ 80 % des données d’entreprise ne sont pas structurées. À l’avenir, les modèles d’IA génératifs deviendront la méthode privilégiée pour détecter et classer les données d’entreprise non structurées, offrant des taux de précision supérieurs à 95 %. Ces modèles deviendront plus efficaces au fil du temps, nécessitant moins de puissance de calcul et permettant des temps d’inférence plus rapides. Des solutions telles que la gestion de la posture de sécurité des données (DSPM), la prévention des pertes de données (DLP) et la gouvernance de l’accès aux données s’appuieront de plus en plus sur la détection et la classification des données sensibles comme base pour fournir une gamme de services de sécurité. À mesure que les services de réseau et de distribution de données convergent, la consolidation des plateformes incitera les fournisseurs à améliorer leurs offres, dans le but de conquérir des parts de marché en fournissant des plateformes complètes, rentables et faciles à utiliser qui répondent aux besoins évolutifs des entreprises.
Le désir partagé par les organisations d’exploiter l’IA générative pour tout, de la productivité à l’automatisation des flux de travail en passant par la création de contenu, conduit à l’introduction d’un nouveau modèle d’architecture application à mesure que les organisations commencent à déployer des capacités d’IA. Ce modèle étend les trois niveaux de concentration traditionnels (client, serveur et données) pour intégrer un nouveau niveau d’IA, où l’inférence est déployée.
Ce nouveau niveau contribue à orienter la définition des passerelles IA , la quatrième de nos technologies à surveiller. Les passerelles IA ne sont pas seulement des passerelles API ou des passerelles Web. Bien que ses capacités de base soient similaires à celles des passerelles API, les besoins architecturaux particuliers du trafic bidirectionnel non structuré et d'une base d'utilisateurs croissante de « bons » robots nécessitent de nouvelles capacités.
Ken Arora, ingénieur distingué, explique :
Les passerelles d’IA apparaissent comme l’évolution naturelle des passerelles API, spécifiquement conçues pour répondre aux besoins des applications d’IA. De la même manière que les Cloud Access Security Brokers (CASB) se spécialisent dans la sécurisation des applications SaaS d’entreprise, les passerelles d’IA se concentreront sur des défis uniques tels que les hallucinations, les préjugés et le jailbreaking, qui entraînent souvent des divulgations de données indésirables. À mesure que les applications d’IA gagnent en autonomie, les passerelles devront également fournir une visibilité, une gouvernance et une sécurité de la chaîne d’approvisionnement robustes, garantissant l’intégrité des ensembles de données de formation et des modèles tiers, qui sont désormais des vecteurs d’attaque potentiels. De plus, à mesure que les applications d’IA se développent, des problèmes tels que les attaques par déni de service distribué (DDoS) et la gestion des coûts deviennent critiques, étant donné les dépenses opérationnelles élevées des applications d’IA par rapport aux applications traditionnelles. De plus, le partage accru de données avec les applications d’IA pour des tâches telles que la synthèse et l’analyse de modèles nécessitera une protection plus sophistiquée contre les fuites de données.
À l’avenir, les passerelles d’IA devront prendre en charge les proxys inverses et directs, les proxys directs jouant un rôle essentiel à court terme, car la consommation d’IA dépasse la production d’IA. Les proxys intermédiaires seront également essentiels dans la gestion des interactions entre les composants au sein des applications d'IA, comme entre les bases de données vectorielles et les grands modèles de langage (LLM). L’évolution de la nature des menaces nécessitera également un changement dans notre façon d’aborder la sécurité. Alors que de nombreux clients deviennent des agents automatisés agissant au nom d’humains, les modèles actuels de protection contre les robots évolueront pour faire la distinction entre les robots légitimes et malveillants. Les passerelles d’IA devront intégrer des politiques avancées telles que l’authentification déléguée, l’analyse du comportement et l’application du moindre privilège, empruntant aux principes de confiance zéro. Cela comprendra des politiques de prise en compte des risques et une visibilité améliorée, garantissant que les violations de sécurité liées à l’IA sont contenues efficacement tout en maintenant une gouvernance solide.
Le plus urgent est de pouvoir répondre non seulement aux préoccupations traditionnelles en matière de sécurité des données (exfiltration, fuite), mais également aux problèmes éthiques liés aux hallucinations et aux préjugés. Personne n’est surpris de voir ces derniers classés parmi les risques importants dans presque toutes les enquêtes sur le sujet.
Compte tenu des problèmes liés aux hallucinations et aux biais, il serait impensable d’ignorer l’utilisation croissante de la génération augmentée par récupération (RAG) et des petits modèles de langage (SLM). RAG est rapidement devenu un modèle d’architecture fondamental pour l’IA générative, notamment en raison de sa capacité à améliorer la spécificité et la précision des informations produites par de grands modèles linguistiques. En combinant les atouts des systèmes de recherche avec les modèles génératifs, RAG apporte une solution à l’un des principaux défis de l’IA : les hallucinations ou la génération d’informations incorrectes ou trompeuses.
Les organisations qui n’intègrent pas encore RAG dans leurs stratégies d’IA passent à côté d’améliorations significatives en termes de précision et de pertinence des données, en particulier pour les tâches nécessitant une récupération d’informations en temps réel et des réponses contextuelles. Mais à mesure que les cas d’utilisation de l’IA générative s’élargissent, les organisations découvrent que le RAG seul ne peut pas résoudre certains problèmes.
Lori MacVittie, ingénieure distinguée, explique :
Les limites croissantes des LLM, notamment leur manque de précision lorsqu’ils traitent de connaissances spécifiques à un domaine ou à une organisation, accélèrent l’adoption de petits modèles linguistiques. Bien que les LLM soient incroyablement puissants dans les applications de connaissances générales, ils échouent souvent lorsqu'il s'agit de fournir des informations précises et nuancées dans des domaines spécialisés. C’est dans ce domaine que les SLM se démarquent, car ils sont adaptés à des domaines de connaissances spécifiques, ce qui leur permet de fournir des résultats plus fiables et plus ciblés. De plus, les SLM nécessitent beaucoup moins de ressources en termes d’énergie et de cycles de calcul, ce qui en fait une solution plus rentable pour les entreprises qui n’ont pas besoin des vastes capacités d’un LLM pour chaque cas d’utilisation.
Actuellement, les SLM ont tendance à être spécifiques à un secteur, souvent formés dans des secteurs tels que la santé ou le droit. Bien que ces modèles soient limités à des domaines plus restreints, ils sont beaucoup plus faciles à former et à déployer que les LLM, tant en termes de coût que de complexité. Alors que de plus en plus d’organisations recherchent des solutions mieux adaptées à leurs besoins en données spécialisées, les SLM devraient remplacer les LLM dans les situations où les méthodes de génération augmentée par récupération ne peuvent à elles seules atténuer complètement les hallucinations. Au fil du temps, nous prévoyons que les SLM domineront de plus en plus les cas d’utilisation où une précision et une efficacité élevées sont primordiales, offrant aux organisations une alternative plus précise et plus économe en ressources aux LLM.
Le besoin de modèles d’IA plus efficaces, capables de gérer la complexité croissante des applications modernes sans nécessiter d’énormes ressources de calcul, devient rapidement un problème existant. Les modèles de transformateurs, bien que puissants, présentent des limites en termes d’évolutivité, d’utilisation de la mémoire et de performances, en particulier à mesure que la taille des modèles d’IA augmente. En conséquence, il existe une forte volonté de développer des architectures qui maintiennent une grande précision tout en réduisant la charge de calcul. De plus, la demande de démocratisation de l’IA, en la rendant accessible sur différents appareils et cas d’utilisation, accélère encore l’adoption d’innovations telles que les modèles de langage de grande taille de 1 bit, conçus pour optimiser la précision tout en minimisant les exigences matérielles.
Ces besoins poussent l’évolution de l’IA à aller au-delà des transformateurs.
Kunal Anand, directeur de l'innovation, explique :
Un nouveau paradigme émerge : la convergence de nouvelles architectures de réseaux neuronaux avec des techniques d’optimisation révolutionnaires qui promettent de démocratiser le déploiement de l’IA sur diverses applications et appareils.
La communauté de l’IA constate déjà les premiers signes d’innovations post-transformateurs dans la conception des réseaux neuronaux. Ces nouvelles architectures visent à répondre aux limitations fondamentales des modèles de transformateurs actuels tout en maintenant ou en améliorant leurs remarquables capacités de compréhension et de génération de contenu. Parmi les développements les plus prometteurs figure l’émergence de modèles hautement optimisés, en particulier de modèles de langage de grande taille de 1 bit. Ces innovations représentent un changement fondamental dans la façon dont nous abordons l’efficacité des modèles, offrant des réductions spectaculaires des besoins en mémoire et des frais de calcul tout en maintenant les performances du modèle malgré une précision réduite.
L’impact de ces évolutions se répercutera sur l’écosystème de l’IA en plusieurs vagues. Les principaux effets seront immédiatement visibles dans la réduction des besoins en ressources pour le déploiement de l’IA. Les modèles qui exigeaient autrefois des ressources de calcul et de mémoire importantes fonctionneront efficacement avec une surcharge considérablement réduite. Cette optimisation va déclencher un changement dans l’architecture informatique, les GPU devenant potentiellement spécialisés dans les tâches de formation et de réglage fin tandis que les CPU gèrent les charges de travail d’inférence avec de nouvelles capacités.
Ces changements catalyseront une deuxième vague d’effets centrés sur la démocratisation et la durabilité. À mesure que les besoins en ressources diminuent, le déploiement de l’IA deviendra accessible à diverses applications et appareils. Les coûts d’infrastructure diminueront considérablement, ce qui permettra des capacités de edge computing qui étaient auparavant peu pratiques. Simultanément, l’intensité de calcul réduite produira des avantages environnementaux grâce à une consommation d’énergie plus faible et une empreinte carbone plus réduite, rendant les opérations d’IA plus durables.
Ces développements permettront des capacités sans précédent dans les appareils de pointe, des améliorations dans le traitement en temps réel et une intégration rentable de l’IA dans tous les secteurs. Le paysage informatique évoluera vers des solutions hybrides combinant différentes architectures de traitement optimisées pour des charges de travail spécifiques, créant ainsi une infrastructure d’IA plus efficace et plus polyvalente.
Les implications de ces évolutions vont bien au-delà des améliorations techniques. Ils suggèrent un avenir où le déploiement de l’IA devient plus polyvalent et respectueux de l’environnement tout en maintenant les performances. À l’horizon 2025, ces changements vont probablement accélérer l’intégration de l’IA dans les applications quotidiennes, créant de nouvelles opportunités d’innovation et d’efficacité dans tous les secteurs.
L’année écoulée a certainement été marquée par des changements, des évolutions et des surprises importants en matière de technologie. Il est raisonnable de croire que la même chose se produira l’année prochaine. Après tout, le potentiel complet de l’IA générative n’a pas encore été exploré, ce qui signifie qu’il est probable que des cas d’utilisation supplémentaires et disruptifs pour cette technologie passionnante émergeront.
Si les organisations n’expérimentent pas encore l’IA générative, elles devraient le faire. L’utilisation de services constitue certainement un bon point de départ pour des cas d’utilisation de base comme les chatbots et les moteurs de recommandation, mais le potentiel de l’IA générative va bien au-delà des conversations et de la génération de nouvelles vidéos de chats.
Attendez-vous à voir davantage de changements et de nouvelles façons d’exploiter l’IA continuer à émerger à mesure que l’IA continue de remodeler les fondements mêmes de la technologie.