Notez qu’il n’y a aucun doute quant à l’existence des préjugés : ils existent. Mais la question est plutôt de savoir comment cela est introduit et pourquoi l’informatique devrait-elle s’en soucier ?
Le battage médiatique autour de l’IA ne pourrait pas être plus fort à l’heure actuelle. L’intérêt est piqué, la demande est énorme et tout le monde se démène pour trouver « l’application phare » pour son marché.
Mais derrière ce battage médiatique se cachent des inquiétudes, et pour de bonnes raisons. Il est assez simple d’introduire des biais dans l’IA, et ces biais suscitent l’inquiétude dans certains cercles.
Pour comprendre comment les biais sont introduits dans l’IA, il est nécessaire d’avoir une compréhension de base de la manière dont les modèles d’IA sont formés.
Selon la personne à qui vous posez la question et le degré de pédagogie qu’elle souhaite adopter, vous obtiendrez des réponses différentes sur le nombre de méthodes d’apprentissage différentes qui existent. En effet, les méthodes, les algorithmes et les modèles utilisés aujourd’hui sont très vastes et, dans de nombreux cas, incompréhensibles pour ceux qui ne sont pas profondément ancrés dans le domaine. Mais il est important de comprendre, à un niveau élevé, comment les modèles sont formés, car c’est ainsi qu’en fin de compte les biais sont introduits. En gardant cela à l’esprit, il existe trois manières fondamentales de former des modèles d’IA :
Bon, passons maintenant au vrai sujet : comment des biais peuvent être introduits dans ces systèmes.
La réponse, et je suis sûr que vous l’avez déjà compris, est basée sur le fait que les humains sont souvent impliqués dans le processus de formation.
La manière la plus simple de biaiser l’apprentissage supervisé est d’empoisonner les données, en quelque sorte, en les étiquetant de manière erronée. Par exemple, si je classe des animaux, étiqueter à tort un « chien » comme un « chat » peut entraîner une identification erronée à une échelle suffisamment élevée. Un risque lié à l’étiquetage est un étiquetage erroné intentionnel dans le but de corrompre le résultat. Certaines erreurs d’étiquetage sont simplement le produit du jugement humain, comme décider si une panthère est un chat ou si une statue de chat est considérée comme un chat. Avec l’apprentissage par renforcement , récompenser positivement la « mauvaise » réponse ou le mauvais mouvement dans un jeu pourrait potentiellement donner lieu à un système qui donne intentionnellement les mauvaises réponses ou qui perd systématiquement.
Ce qui pourrait être une option attrayante pour certains.
Bien sûr, cela a des implications pour l'IA conversationnelle (générative) comme ChatGPT, qui a été, selon leur site, affiné en utilisant « l'apprentissage supervisé ainsi que l'apprentissage par renforcement » qui « a utilisé des formateurs humains pour améliorer les performances du modèle ». Lorsque vous choisissez l’option « vers le haut » ou « vers le bas » pour classer les réponses, ces données peuvent potentiellement être utilisées pour affiner davantage son modèle. Vous, cher lecteur, je suppose que vous êtes humain. Par conséquent, il existe un risque de biais supplémentaire du système. La réalité est que ChatGPT se trompe souvent complètement dans ses réponses. Le feedback est nécessaire pour former davantage le système afin qu'il puisse générer plus souvent la bonne réponse.
C’est intéressant, et nous pourrions avoir une conversation fascinante sur les façons dont nous pourrions manipuler ces systèmes et les conséquences, mais la véritable raison pour laquelle je voulais explorer ce sujet est que le problème des préjugés s’étend à la télémétrie, les données opérationnelles que nous voulons tous utiliser pour piloter l’automatisation des systèmes et des services qui fournissent et sécurisent les services numériques.
Vous vous souviendrez peut-être que j'ai écrit sur le sujet du biais des données en relation avec la télémétrie et les informations qui manquent à 98 % des organisations.
Dans la plupart des cas liés à l’analyse de la télémétrie, les modèles sont formés à l’aide de données étiquetées. Des biais peuvent être introduits dans ce système par (a) un mauvais étiquetage des données ou (b) un manque de diversité des données dans une catégorie spécifique ou (c) la méthode utilisée pour introduire de nouvelles données. La raison pour laquelle l’étiquetage erroné des données est problématique devrait être évidente, car il peut, en quantité suffisamment importante, entraîner une identification erronée. Le problème avec la diversité des données est que les données qui ne font pas partie d’un ensemble de formation aussi restreint seront inévitablement mal classées.
Un exemple classique en est un modèle d’IA formé pour reconnaître les chars par rapport aux autres types de transport. Il s'avère que tous les chars ont été photographiés à la lumière du jour, mais d'autres véhicules ne l'ont pas été. En conséquence, l'IA a fait un excellent travail en matière de tanking et de non-tanking, mais elle a en fait établi une corrélation entre le jour et la nuit. Le manque de diversité dans l’ensemble des données d’entrée a entraîné une corrélation biaisée.
Même si une IA opérationnelle s’appuie sur l’apprentissage par renforcement, le manque de diversité des données est problématique car le système ne dispose pas de toutes les « variables » nécessaires pour déterminer le « prochain mouvement », en quelque sorte.
La raison pour laquelle une IA peut ne pas disposer d’un ensemble diversifié de données ou de toutes les variables dont elle a besoin est, vous l’avez deviné, le biais des données. Plus précisément, le biais de données introduit par la surveillance sélective, dans laquelle seule *une partie* de la télémétrie est ingérée pour analyse. Par exemple, l’impact des performances DNS sur l’expérience utilisateur est bien compris. Mais si un modèle est formé pour analyser les performances d’une application sans télémétrie du DNS, il peut affirmer que les performances sont tout à fait correctes même s’il y a un problème avec le DNS, car il n’a aucune idée que le DNS est lié de quelque manière que ce soit aux performances de bout en bout de l’application. Si la « prochaine étape » consiste à alerter quelqu’un d’une dégradation des performances, le système échouera en raison d’un biais dans la sélection des données.
Vous ne serez pas surpris si je vous dis que notre étude annuelle révèle que plus de la moitié des organisations citent les « données manquantes » comme l’un des principaux défis à relever pour découvrir les informations dont elles ont besoin.
Ainsi, même si toutes les organisations s’engageaient à exploiter l’IA pour prendre des décisions opérationnelles, cela représenterait un défi. Sans un ensemble de données diversifié sur lequel former un tel système, le risque de biais s’installe.
Une troisième façon d’introduire un biais réside dans les méthodes utilisées pour introduire les données dans le modèle. L’exemple opérationnel le plus courant consiste à utiliser les résultats de tests synthétiques pour déterminer les performances moyennes d’une application, puis à utiliser le modèle résultant pour analyser le trafic réel. En fonction de l'étendue des emplacements, des appareils, de la congestion du réseau, etc. qui forment l'ensemble de données issu des tests synthétiques, des performances parfaitement acceptables pour les utilisateurs réels peuvent être identifiées comme un échec, ou vice versa.
Le risque est une érosion de la confiance dans la technologie, qui pourrait agir comme un multiplicateur de force et permettre l’échelle et l’efficacité nécessaires aux organisations pour fonctionner comme une entreprise numérique. Parce que si l’IA continue à donner les « mauvaises » réponses ou à suggérer les « mauvaises » solutions, eh bien, personne ne lui fera confiance.
C'est pourquoi l'observabilité full-stack n'est pas seulement importante, mais l'une des six capacités techniques clés nécessaires aux organisations pour passer à la troisième phase de la transformation numérique : Entreprise assistée par l'IA.
Les données manquantes, qu’elles soient dues à une surveillance sélective ou à une sélection arbitraire de mesures, sont susceptibles de biaiser les modèles d’IA utilisés pour prendre des décisions opérationnelles.
Une attention particulière portée aux sources et aux types de données, associée à une stratégie complète de données et d’observabilité, contribuera grandement à éliminer les biais et à produire des résultats plus précis et plus fiables.