BLOG | BUREAU DU CTO

Concepts cruciaux en IA : Transparence et explicabilité

Miniature de Lori MacVittie
Lori MacVittie
Publié le 16 juillet 2024

Presque toutes les enquêtes visant à comprendre les préoccupations de l’industrie en matière d’IA regroupent tout sous le terme de « sécurité ». Des inquiétudes concernant les fuites de données sensibles aux hallucinations et aux préjugés , de l’exploitation via l’injection rapide à la transparence et à l’explicabilité, il semble que tout soit la responsabilité de la sécurité en matière d’IA.

Chacune de ces préoccupations est valable et importante, mais elles sont toutes très différentes et la plupart d’entre elles ne relèvent pas de la responsabilité de la sécurité.

Aujourd’hui, nous allons nous pencher sur la transparence et l’explicabilité, deux concepts essentiels à comprendre et à mettre en pratique lorsqu’il s’agit d’utiliser l’IA au sein de votre entreprise. Ce n’est pas seulement parce qu’ils constituent des moyens d’établir la confiance dans le système et les résultats ; tous deux prennent également en charge le dépannage et le débogage des systèmes, en particulier pendant le développement.

Transparence et explicabilité

La transparence et l’explicabilité sont des concepts essentiels en général, mais particulièrement applicables à l’IA étant donné que la plupart des praticiens, même au sein de l’informatique, ne connaissent pas le fonctionnement de ces systèmes. Ces deux concepts sont souvent évoqués dans le contexte de l’IA éthique, de l’IA responsable et de la gouvernance de l’IA. Bien qu’ils soient étroitement liés, ils ont des significations distinctes et servent à des fins différentes dans la compréhension et la gouvernance des systèmes d’IA.

La transparence vise à fournir des informations générales à un large public, y compris les parties prenantes et le public, sur le système d’IA. L'explicabilité est plus spécifique et cherche à clarifier les décisions ou les résultats individuels aux utilisateurs, aux développeurs et aux parties prenantes qui ont besoin de comprendre leur comportement. 

La transparence vise à promouvoir la confiance dans le système, tandis que l’explicabilité vise à établir la confiance dans des résultats spécifiques. Pour y parvenir, la transparence et l’explicabilité se concentrent sur différents éléments.

Transparence : Citez vos sources

La transparence dans l’IA fait référence au degré auquel les informations sur la conception, le fonctionnement et les processus décisionnels d’un système d’IA sont ouvertes, accessibles et compréhensibles pour les parties prenantes. Il met l’accent sur une communication claire et une visibilité sur le fonctionnement des systèmes d’IA, permettant aux parties prenantes de comprendre divers aspects du système.

Les éléments clés de la transparence de l’IA comprennent :

  • Conception et développement : La transparence implique le partage d’informations sur la conception, l’architecture et les processus de formation des systèmes d’IA. Cela inclut le type de données utilisées, les algorithmes et les modèles mis en œuvre. Cette transparence est similaire aux divulgations de services financiers dans lesquelles les fournisseurs expliquent quelles données et quels poids entrent en jeu pour déterminer votre éligibilité à un prêt hypothécaire ou au score FICO des agences d’évaluation du crédit.
  • Données et entrées : La transparence implique d’être clair sur les sources et les types de données utilisées pour former et faire fonctionner le système d’IA. Elle comprend également la divulgation de tout prétraitement, transformation ou augmentation de données appliqué aux données d’entrée. Ce type d’informations est similaire aux déclarations de collecte de données, dans lesquelles les entreprises vous indiquent quelles données elles collectent, stockent et avec qui elles peuvent les partager.
  • Gouvernance et responsabilité : Fournir des informations sur les personnes responsables du développement, du déploiement et de la gouvernance du système d’IA. Cela aide les parties prenantes à comprendre la structure de responsabilité.

Explicabilité : Montrez votre travail

L’explicabilité en IA fait référence à la capacité à fournir des raisons ou des justifications compréhensibles pour les décisions, les résultats ou le comportement des systèmes. Il met l’accent sur l’explication des raisons pour lesquelles une décision particulière a été prise, en s’efforçant de rendre les résultats de l’IA compréhensibles pour les utilisateurs et les parties prenantes.

Les éléments clés de l’explicabilité de l’IA comprennent :

  • Justification de la décision : L’explicabilité implique de détailler les facteurs et la logique qui ont conduit à une décision ou à un résultat spécifique. Il répond aux questions : « Pourquoi l'IA a-t-elle pris cette décision ? » et « Qu'est-ce qui a influencé ce résultat ? » Cela s’apparente à une démonstration en géométrie ; vous devez vous appuyer sur des axiomes (intermédiarité, congruence, lignes parallèles, etc.) pour expliquer votre résultat. En d’autres termes, si l’IA décide que 2+2=5, elle doit démontrer une raison valable pour cette décision, comme s’appuyer sur un système mathématique alternatif ou utiliser l’équation comme un procédé littéraire.  
  • Interprétabilité du modèle : L’explicabilité nécessite de rendre les modèles d’IA interprétables afin que les parties prenantes puissent comprendre les mécanismes sous-jacents de la prise de décisions. Par exemple, tout le monde ne comprend pas le calcul, donc une explication sous la forme d’une équation complexe n’est pas suffisante. Il existe une différence notable entre la manière dont fonctionnent un réseau antagoniste génératif (GAN) et les réseaux neuronaux convolutifs (CNN), c'est pourquoi la divulgation de l'approche architecturale utilisée est un élément important de l'interprétabilité.
  • Compréhensibilité humaine : L’explication doit être présentée dans un format facilement compréhensible par les humains, y compris les non-experts. Cela nécessite de présenter des opérations d’IA complexes de manière simple et claire. Vous ne pouvez pas présenter l’explication sous forme hexadécimale ou avec du code ; vous devrez utiliser quelque chose de lisible par toutes les parties prenantes, y compris les services juridiques, de conformité et les ingénieurs.

Instaurer la confiance dans l'IA

Chaque nouvelle technologie nécessite du temps pour établir la confiance. Il y a quinze ans, personne ne faisait confiance à la mise à l’échelle automatique des applications critiques, mais aujourd’hui, elle est considérée comme une capacité fondamentale. L’automatisation sous toutes ses formes, qu’il s’agisse de résoudre des problèmes mathématiques complexes, de conduire votre voiture ou de payer vos factures, prend du temps pour que les utilisateurs fassent confiance. La transparence sur le processus et l’explication du fonctionnement du système peuvent contribuer grandement à réduire l’écart entre l’introduction et l’adoption.

La transparence offre une vue d’ensemble du fonctionnement du système d’IA, tandis que l’explicabilité approfondit les raisons qui sous-tendent des décisions ou des résultats spécifiques. Ces deux éléments sont essentiels pour que l’IA réussisse et que les entreprises puissent profiter de ses avantages en termes de meilleur service client, de productivité accrue et de prise de décision plus rapide.

Et ce n’est pas non plus du ressort de la sécurité.