Des promesses, des promesses. Les applications basées sur l’IA générative promettent d’augmenter la productivité humaine et donc les bénéfices des entreprises. Le chemin de l'expérimentation à la production pour de nombreux cas d'utilisation reste effréné et périlleux, tout comme le jeu vidéo de 1981 de Konami, Frogger . La grenouille doit rentrer chez elle, d'abord en traversant une rue très fréquentée, puis en traversant une rivière au débit rapide. La grenouille ne peut pas rester assise, mais elle ne peut pas toujours sauter en avant en raison du danger inhérent.
Les entreprises sont la grenouille. La rue et la rivière sont des flots vertigineux de technologie d'IA qui défilent. Les espaces sécurisés (rue ouverte et rondins flottants) sont des projets locaux et des offres de fournisseurs. Les voitures, les camions, les tortues et les eaux libres sont les dangers éthiques, juridiques, de confidentialité et de précision de l'IA générative. La maison est le côté opposé, où les gains des entreprises montent en flèche après la mise en production d'applications d'IA générative.
La vitesse à laquelle l’IA générative a décollé crée une urgence frénétique au sein des entreprises. Mais la vitesse à laquelle les modèles évoluent peut paralyser certaines organisations, car le sol se dérobe si vite qu’elles ne peuvent pas s’orienter face à des changements constants et rapides. Le secret pour adopter l’IA générative est le même que celui du démarrage d’une partie de Frogger : lancez-vous !
En partant des cas d’utilisation de base de l’IA générative, une fois que les entreprises décident lesquels d’entre eux semblent souhaitables, elles peuvent commencer à expérimenter. Qu'il s'agisse de créer une application basée sur l'IA ou de tester des offres tierces, ou les deux, les essais initiaux clarifieront exactement les besoins de l'entreprise. La clé du succès à ce stade précoce est de s’engager sur une version minimale de l’application qui répond aux exigences de production en matière de sécurité et d’efficacité. Cela devient le fondement de l’organisation. À partir de là, ils peuvent avancer, décider quelles avancées du modèle sont importantes et s’il est plus prudent de construire ou d’acheter.
Il existe deux « pièges » qui ralentiront inévitablement une organisation essayant d’adopter l’IA générative : les modèles de formation en interne et les référentiels de données privés. Le rythme d’avancement du modèle fondamental se mesure désormais en semaines et en mois, et les versions en aval sont mises à jour quotidiennement. Jetez simplement un œil au modèle de suivi HuggingFace si vous avez besoin d’une preuve. La page que je viens de tirer en écrivant cet article remplit presque une page entière avec des modèles mis à jour il y a moins d'une minute. Il faut défiler la page pour trouver un modèle vieux de plus de 2 minutes !
Si les données nécessaires pour répondre à une question posée à l’IA sont accessibles au public, il y a de fortes chances qu’il existe déjà une bonne variété de modèles fondamentaux disponibles via une API pour utilisation. En revanche, si les données ne sont pas publiques, il faut alors décider s’il faut envoyer ces données lors de l’inférence ou créer ou obtenir et déployer un modèle de manière privée. Payer pour accéder à un modèle est certainement plus rapide et très probablement moins cher que de créer ou d'obtenir une licence, d'héberger et de maintenir votre propre modèle en interne. Quel est votre super pouvoir d’entreprise ? S'il s'agit d'autre chose que de créer ou de maintenir de grands modèles de langage (LLM), il y a de fortes chances que vous deviez acheter, et non créer et héberger.
Et pour les données privées, les fenêtres de contexte et les options personnalisées pour l'utilisation de LLM ont mûri si rapidement que la sécurité et la conformité de niveau entreprise, similaires à ce qui a déjà été accepté pour le cloud computing, répondent aux critères de la plupart des entreprises. En fait, aucune formation sur vos données n’a été entendue haut et fort par les fournisseurs de modèles en 2023. En prenant ChatGPT Enterprise comme exemple, il bénéficie de la conformité SOC 2 Type 2, de l'authentification unique SAML, du cryptage des données au repos et en transit avec des espaces de travail dédiés qui prennent en charge la conservation des données et la vérification du domaine : pas mal, non ? Eh bien, pour 92 % des entreprises du Fortune 500, cela semble largement suffisant.
Les organisations qui croient aux promesses de l’IA générative n’ont pas besoin d’être paralysées par les dangers inhérents ou les améliorations quotidiennes du LLM. Ils peuvent réussir en sautant les yeux ouverts. Le cycle initial d’expérimentation apporte la confiance et la capacité de prioriser les tâches qui bénéficient le plus d’une utilisation sûre et éthique. Ces outils devraient être déployés dans toute l'organisation en mode production, ce qui donnerait aux évaluateurs et aux implémenteurs un peu de répit et à l'organisation le temps de mesurer les gains de productivité, de prioriser la prochaine série de tâches et de déterminer si la création ou l'achat d'un accès aux LLM est plus judicieux.