BLOG

Comment les opérateurs de télécommunications peuvent faire passer l'IA générative au niveau supérieur

Alix Leconte Miniature
Alix Leconte
Publié le 20 février 2024

Au cours des 18 derniers mois, l’IA générative (GenAI) a pris le monde d’assaut. 

De nouveaux services, tels que ChatGPT et DALL-E, peuvent générer du texte, des images et du code logiciel en réponse aux invites en langage naturel des utilisateurs.  

De nouveaux niveaux de productivité sont désormais possibles et, selon une étude récente de Bloomberg Intelligence, le marché GenAI pourrait valoir jusqu’à 1,3 billion de dollars d’ici 2032.

La valeur de cette technologie étant désormais clairement évidente, nous commençons à constater une volonté croissante de créer des versions spécifiques à l'industrie et à la région des grands modèles linguistiques (LLM) qui permettent aux ordinateurs de générer du texte crédible et d'autres contenus. 

Les LLM sont des modèles de langage statistiques formés sur une quantité massive de données. Ils peuvent être utilisés pour générer et traduire du texte et d’autres contenus, ainsi que pour effectuer des tâches de traitement du langage naturel. Les LLM sont généralement basés sur des architectures d'apprentissage en profondeur. 

Partout dans le monde, les opérateurs de télécommunications pionniers se préparent déjà à jouer un rôle majeur dans la fourniture et la sécurité de ces LLM spécialisés. Ils anticipent notamment une forte demande de solutions GenAI de bout en bout de la part des entreprises, des start-ups, des universités et des administrations publiques qui ne peuvent pas se permettre de construire elles-mêmes l’infrastructure informatique nécessaire.

Il s’agit d’une tendance accrocheuse et, avec des mesures de sécurité appropriées, les solutions LLM-as-a-service pourraient bientôt être utilisées pour développer des applications GenAI spécifiques pour les soins de santé, l’éducation, les transports et d’autres secteurs clés (y compris les télécommunications).

Défis

Alors, quelles sont les prochaines étapes pour que tout cela fonctionne, et quels sont les principaux défis à venir ?

Comme ils doivent être très réactifs, très fiables et toujours disponibles, de nombreux LLM seront probablement répartis sur plusieurs clouds et emplacements périphériques du réseau.

En effet, avec la latence appropriée, GenAI fera partie intégrante des propositions edge des opérateurs de télécommunications, car les utilisateurs auront besoin de réponses « conversationnelles » en temps réel.

Pour les opérateurs de télécommunications qui ont du mal à augmenter leurs revenus, la fourniture d'infrastructures de pointe pour prendre en charge les systèmes GenAI spécialisés pourrait constituer un nouveau marché majeur . Bloomberg Intelligence estime que le marché de l'infrastructure en tant que service GenAI (utilisé pour la formation des LLM) vaudra 247 milliards de dollars d'ici 2032.

Néanmoins, ceux qui espèrent décrocher le jackpot GenAI doivent faire preuve de prudence.

Les architectures distribuées, qui peuvent augmenter la surface d’attaque potentielle, nécessitent des solutions de sécurité robustes et évolutives pour empêcher la fuite de données et d’informations personnellement identifiables, à la fois dans les phases de formation et d’inférence de l’IA. 

Alors que les mauvais acteurs utilisent de plus en plus de techniques de mouvement latéral pour couvrir plusieurs systèmes interconnectés, il est essentiel que les opérateurs de télécommunications sécurisent à la fois les applications et les API que les tiers utiliseront pour accéder au LLM en tant que service. Pour contribuer à sensibiliser sur ce front, l'Open Source Foundation for Application Security (OWASP) a récemment lancé un nouveau projet visant à sensibiliser les développeurs, les concepteurs, les architectes, les gestionnaires et les organisations aux risques de sécurité potentiels lors du déploiement et de la gestion des LLM. 

Une chose est sûre : les opérateurs de télécommunications doivent maintenir la confiance des clients nécessaire pour devenir des acteurs crédibles sur ce marché, car les systèmes GenAI devront souvent traiter des données personnelles ou commerciales sensibles. C’est pour cette raison que de nombreux gouvernements et régulateurs souhaitent que ces systèmes fonctionnent avec des capacités de calcul situées sur leur territoire. Parallèlement, les entreprises sont également réticentes à partager des données sensibles qui pourraient menacer leur propriété intellectuelle et préfèrent donc utiliser des offres LLM privées.

D’autres questions méritent d’être soulignées, notamment la manière dont les clusters d’IA agissent comme des communautés d’utilisateurs virtuelles, ce qui nécessite des chemins de données à hautes performances pour accéder aux données résidant dans les référentiels privés des pays et des entreprises.

En outre, l’impact de l’IA sur le trafic et l’infrastructure du réseau sera de plus en plus influencé par les projets des pays et des entreprises visant à auto-héberger des applications d’IA. Les préoccupations concernant les hallucinations, les droits d’auteur, la sécurité, ainsi que les impacts environnementaux de l’IA, poussent de nombreuses personnes à rechercher davantage de sécurité et de contrôle sur les données. En outre, ils auront besoin de nouveaux moyens pour atténuer la pression anticipée sur les GPU. Toutes ces considérations ont un impact sur le coût total de possession global des infrastructures d’IA.

Entrez dans les télécoms : une protection flexible et évolutive dans plusieurs environnements 

Les opérateurs de télécommunications peuvent jouer un rôle majeur dans la révolution de l’IA. Ils possèdent des infrastructures nationales, disposent d’une offre B2B existante et constituent une option naturelle pour devenir des fournisseurs d’IA en tant que service.    

À titre d’exemple, F5 aide déjà un opérateur de télécommunications en Europe à sécuriser sa nouvelle proposition GenAI. Dans ce cas, notre client utilise les technologies Nvidia DGX Super POD et Nvidia AI Enterprise pour développer le premier LLM formé nativement dans une langue locale. L’objectif est de saisir les nuances de la langue, ainsi que les spécificités de sa grammaire, de son contexte et de son identité culturelle.

Pour sécuriser la solution sur plusieurs sites périphériques, l'opérateur s'appuiera sur F5 Distributed Cloud Web Application and API Protection (WAAP) , fourni en tant que service basé sur le cloud. Ils exploitent également les clusters ADC de F5 pour effectuer l'équilibrage de charge de la nouvelle plate-forme d'IA sur l'ensemble de son infrastructure de pointe.

Il est essentiel de noter que les solutions de F5 peuvent être utilisées dans les centres de données de cloud public et multi-locataires, ainsi qu'en interne et pour leur infrastructure de pointe. 

De plus, F5 Distributed Cloud WAAP et les solutions de sécurité API associées peuvent évoluer rapidement à mesure que le trafic augmente, réduisant ainsi le coût global de la fourniture du LLM en tant que service. F5 fournit également une visibilité sur le flux de trafic, la latence et les temps de réponse que les opérateurs de télécommunications et autres fournisseurs de services gérés devront fournir aux clients d'entreprise avec des accords de niveau de service.

Une autre façon dont F5 peut aider est de tenir compte du fait que les tâches d’inférence LLM et d’IA sont connues pour nécessiter beaucoup de ressources. Ces charges de travail nécessitent des échanges de données importants et entraînent souvent des goulots d’étranglement en raison de la nécessité d’échanges de données sécurisés à grande échelle. Cela peut entraîner une moindre utilisation de ressources précieuses, ce qui entraîne une augmentation des coûts opérationnels et des retards dans l’obtention des résultats souhaités. 

Si elles jouent bien leurs cartes et sont capables d’exploiter intelligemment des solutions de sécurité évolutives et robustes, les opérateurs de télécommunications ont tout ce qu’il faut pour devenir des fournisseurs de confiance de LLM spécifiques à leur secteur et à leur pays. Ceux qui réussiront gagneront sans aucun doute un avantage concurrentiel majeur dans les années à venir.

Vous souhaitez en savoir plus ? Prenez rendez-vous avec F5 au Mobile World Congress à Barcelone du 26 au 29 février (Hall 5, Stand 5C60)