BLOG | BUREAU DU CTO

Qu'est-ce que le biais de l'IA et pourquoi est-ce important pour l'informatique ?

Miniature de Lori MacVittie
Lori MacVittie
Publié le 22 février 2023

Notez qu’il n’y a aucun doute quant à l’existence des préjugés : ils existent. Mais la question est plutôt de savoir comment cela est introduit et pourquoi l’informatique devrait-elle s’en soucier ?

Le battage médiatique autour de l’IA ne pourrait pas être plus fort à l’heure actuelle. L’intérêt est piqué, la demande est énorme et tout le monde se démène pour trouver « l’application phare » pour son marché.

Mais derrière ce battage médiatique se cachent des inquiétudes, et pour de bonnes raisons. Il est assez simple d’introduire des biais dans l’IA, et ces biais suscitent l’inquiétude dans certains cercles.

Une brève introduction aux modèles d'apprentissage de l'IA

Pour comprendre comment les biais sont introduits dans l’IA, il est nécessaire d’avoir une compréhension de base de la manière dont les modèles d’IA sont formés. 

Selon la personne à qui vous posez la question et le degré de pédagogie qu’elle souhaite adopter, vous obtiendrez des réponses différentes sur le nombre de méthodes d’apprentissage différentes qui existent. En effet, les méthodes, les algorithmes et les modèles utilisés aujourd’hui sont très vastes et, dans de nombreux cas, incompréhensibles pour ceux qui ne sont pas profondément ancrés dans le domaine. Mais il est important de comprendre, à un niveau élevé, comment les modèles sont formés, car c’est ainsi qu’en fin de compte les biais sont introduits. En gardant cela à l’esprit, il existe trois manières fondamentales de former des modèles d’IA : 

  1. Apprentissage supervisé. Les données d’entrée sont étiquetées. Le système sait quelle doit être la sortie en fonction de l'ensemble de données et des étiquettes utilisées pour l'entraîner et est capable d'utiliser ces connaissances pour prédire d'autres valeurs. Dans cette catégorie, deux principaux types d’algorithmes sont utilisés. L’une d’entre elles est basée sur la classification, dans laquelle les données sont regroupées en catégories en fonction d’attributs tels que la couleur, la taille et la forme. La reconnaissance d’images entre généralement dans cette catégorie, mais d’autres utilisations courantes sont la détection du spam et le filtrage des e-mails. La seconde utilise la régression mathématique pour découvrir des modèles basés sur une relation linéaire entre l’entrée et la sortie. Dans cette méthode, les résultats sont catégorisés en dehors du modèle, comme les mesures de la météo réelle. Les tendances du marché et de la météo utilisent souvent cette méthode.
     
  2. Apprentissage non supervisé. Comme le terme « non supervisé » l’implique, aucune indication n’est donnée au système sur la nature des données. Il n'est pas étiqueté. Le système est censé découvrir des modèles et des relations par lui-même et prédire un résultat. Les algorithmes d’apprentissage non supervisé reposent sur deux techniques différentes : le clustering et l’association. Avec le clustering, le système est invité à regrouper les données en fonction de similitudes de telle sorte que les données d'un groupe présentent peu ou pas de similitudes avec d'autres groupes. Le comportement d’achat des clients est une utilisation courante du clustering. Avec l'association, le système est invité à trouver des relations entre les données, telles que les dépendances entre elles. Cette approche est entièrement fondée sur la corrélation et non sur la causalité. Les systèmes non supervisés découvrent simplement « des choses qui vont de pair avec d’autres choses » et non « des choses qui provoquent l’apparition d’autres choses ». L'association est souvent utilisée pour l'exploration de l'utilisation du Web.
     
  3. Apprentissage par renforcement. L’apprentissage par renforcement est un compromis entre l’entraînement supervisé et non supervisé qui cherche à minimiser les inconvénients de chacun. Avec l’apprentissage par renforcement, les systèmes reçoivent des données non étiquetées qu’ils explorent. Ils sont ensuite récompensés positivement ou négativement pour leurs résultats, dont le système « apprend » pour affiner ses décisions. Il s’agit du modèle le plus proche de la manière dont les humains apprennent, comme le montre l’utilisation de questionnaires et de tests dans le processus éducatif. Les jeux vidéo, la robotique et l’exploration de texte sont des utilisations courantes de l’apprentissage par renforcement. 

Comment les préjugés s’infiltrent dans l’IA

Bon, passons maintenant au vrai sujet : comment des biais peuvent être introduits dans ces systèmes.

La réponse, et je suis sûr que vous l’avez déjà compris, est basée sur le fait que les humains sont souvent impliqués dans le processus de formation.

La manière la plus simple de biaiser l’apprentissage supervisé est d’empoisonner les données, en quelque sorte, en les étiquetant de manière erronée. Par exemple, si je classe des animaux, étiqueter à tort un « chien » comme un « chat » peut entraîner une identification erronée à une échelle suffisamment élevée. Un risque lié à l’étiquetage est un étiquetage erroné intentionnel dans le but de corrompre le résultat. Certaines erreurs d’étiquetage sont simplement le produit du jugement humain, comme décider si une panthère est un chat ou si une statue de chat est considérée comme un chat. Avec l’apprentissage par renforcement , récompenser positivement la « mauvaise » réponse ou le mauvais mouvement dans un jeu pourrait potentiellement donner lieu à un système qui donne intentionnellement les mauvaises réponses ou qui perd systématiquement.

Ce qui pourrait être une option attrayante pour certains.

Bien sûr, cela a des implications pour l'IA conversationnelle (générative) comme ChatGPT, qui a été, selon leur site, affiné en utilisant « l'apprentissage supervisé ainsi que l'apprentissage par renforcement » qui « a utilisé des formateurs humains pour améliorer les performances du modèle ». Lorsque vous choisissez l’option « vers le haut » ou « vers le bas » pour classer les réponses, ces données peuvent potentiellement être utilisées pour affiner davantage son modèle. Vous, cher lecteur, je suppose que vous êtes humain. Par conséquent, il existe un risque de biais supplémentaire du système. La réalité est que ChatGPT se trompe souvent complètement dans ses réponses. Le feedback est nécessaire pour former davantage le système afin qu'il puisse générer plus souvent la bonne réponse.

C’est intéressant, et nous pourrions avoir une conversation fascinante sur les façons dont nous pourrions manipuler ces systèmes et les conséquences, mais la véritable raison pour laquelle je voulais explorer ce sujet est que le problème des préjugés s’étend à la télémétrie, les données opérationnelles que nous voulons tous utiliser pour piloter l’automatisation des systèmes et des services qui fournissent et sécurisent les services numériques.

IA, biais et télémétrie

Vous vous souviendrez peut-être que j'ai écrit sur le sujet du biais des données en relation avec la télémétrie et les informations qui manquent à 98 % des organisations.

Dans la plupart des cas liés à l’analyse de la télémétrie, les modèles sont formés à l’aide de données étiquetées. Des biais peuvent être introduits dans ce système par (a) un mauvais étiquetage des données ou (b) un manque de diversité des données dans une catégorie spécifique ou (c) la méthode utilisée pour introduire de nouvelles données. La raison pour laquelle l’étiquetage erroné des données est problématique devrait être évidente, car il peut, en quantité suffisamment importante, entraîner une identification erronée. Le problème avec la diversité des données est que les données qui ne font pas partie d’un ensemble de formation aussi restreint seront inévitablement mal classées.

Un exemple classique en est un modèle d’IA formé pour reconnaître les chars par rapport aux autres types de transport. Il s'avère que tous les chars ont été photographiés à la lumière du jour, mais d'autres véhicules ne l'ont pas été. En conséquence, l'IA a fait un excellent travail en matière de tanking et de non-tanking, mais elle a en fait établi une corrélation entre le jour et la nuit. Le manque de diversité dans l’ensemble des données d’entrée a entraîné une corrélation biaisée.

Même si une IA opérationnelle s’appuie sur l’apprentissage par renforcement, le manque de diversité des données est problématique car le système ne dispose pas de toutes les « variables » nécessaires pour déterminer le « prochain mouvement », en quelque sorte.

La raison pour laquelle une IA peut ne pas disposer d’un ensemble diversifié de données ou de toutes les variables dont elle a besoin est, vous l’avez deviné, le biais des données. Plus précisément, le biais de données introduit par la surveillance sélective, dans laquelle seule *une partie* de la télémétrie est ingérée pour analyse. Par exemple, l’impact des performances DNS sur l’expérience utilisateur est bien compris. Mais si un modèle est formé pour analyser les performances d’une application sans télémétrie du DNS, il peut affirmer que les performances sont tout à fait correctes même s’il y a un problème avec le DNS, car il n’a aucune idée que le DNS est lié de quelque manière que ce soit aux performances de bout en bout de l’application. Si la « prochaine étape » consiste à alerter quelqu’un d’une dégradation des performances, le système échouera en raison d’un biais dans la sélection des données.

Vous ne serez pas surpris si je vous dis que notre étude annuelle révèle que plus de la moitié des organisations citent les « données manquantes » comme l’un des principaux défis à relever pour découvrir les informations dont elles ont besoin.

Ainsi, même si toutes les organisations s’engageaient à exploiter l’IA pour prendre des décisions opérationnelles, cela représenterait un défi. Sans un ensemble de données diversifié sur lequel former un tel système, le risque de biais s’installe.

Une troisième façon d’introduire un biais réside dans les méthodes utilisées pour introduire les données dans le modèle. L’exemple opérationnel le plus courant consiste à utiliser les résultats de tests synthétiques pour déterminer les performances moyennes d’une application, puis à utiliser le modèle résultant pour analyser le trafic réel. En fonction de l'étendue des emplacements, des appareils, de la congestion du réseau, etc. qui forment l'ensemble de données issu des tests synthétiques, des performances parfaitement acceptables pour les utilisateurs réels peuvent être identifiées comme un échec, ou vice versa.

Le risque de la transformation numérique

Le risque est une érosion de la confiance dans la technologie, qui pourrait agir comme un multiplicateur de force et permettre l’échelle et l’efficacité nécessaires aux organisations pour fonctionner comme une entreprise numérique. Parce que si l’IA continue à donner les « mauvaises » réponses ou à suggérer les « mauvaises » solutions, eh bien, personne ne lui fera confiance.

C'est pourquoi l'observabilité full-stack n'est pas seulement importante, mais l'une des six capacités techniques clés nécessaires aux organisations pour passer à la troisième phase de la transformation numérique : Entreprise assistée par l'IA.

Les données manquantes, qu’elles soient dues à une surveillance sélective ou à une sélection arbitraire de mesures, sont susceptibles de biaiser les modèles d’IA utilisés pour prendre des décisions opérationnelles.

Une attention particulière portée aux sources et aux types de données, associée à une stratégie complète de données et d’observabilité, contribuera grandement à éliminer les biais et à produire des résultats plus précis et plus fiables.