BLOG

L'utilisation d'outils d'IA générative sur le lieu de travail exige davantage de sécurité

Rachael Shah Miniature
Rachel Shah
Publié le 22 août 2023

L’IA générative est comme cet objet vraiment brillant que personne ne peut quitter des yeux.

Presque toutes les entreprises du monde entier se réjouissent du potentiel des outils d’IA générative pour transformer leur activité, et pour de bonnes raisons.

L’IA générative, une forme d’apprentissage automatique qui crée du contenu tel que du texte et des images en réponse à des demandes en langage naturel, est une technologie révolutionnaire. De l’augmentation de la productivité à l’amélioration de la personnalisation, les outils d’IA générative offrent une série d’avantages.

Par exemple, dans un récent sondage de Gartner , plus de 2 500 dirigeants indiquent que l’expérience et la fidélisation des clients (38 %) sont l’objectif principal de leurs investissements en IA générative. Viennent ensuite d’autres domaines comme la croissance des revenus (26 %), l’optimisation des coûts (17 %) et la continuité des activités (7 %).

De plus, dans une enquête distincte menée auprès de 3 000 PDG par IBM , 69 % des PDG interrogés voient les vastes avantages de l’IA générative dans leur organisation. Cependant, seulement 30 % des cadres supérieurs non PDG déclarent que leur organisation est prête à adopter l’IA générative de manière responsable.

Soyons francs : C'est alarmant. Moins d’un tiers des cadres supérieurs déclarent que leur organisation est prête à adopter l’IA générative de manière responsable ?

Il est facile de se laisser emporter par tous les gains positifs que vous pourriez potentiellement obtenir en utilisant des outils d’IA générative. Mais n’oublions pas : L’utilisation d’outils d’IA générative peut présenter des risques et des défis majeurs.

Compte tenu de la rapidité avec laquelle l’IA générative évolue, les organisations peuvent rapidement se retrouver dans une situation délicate si elles ne font pas attention à la manière dont leurs employés exploitent les outils d’IA générative et ne restent pas au courant des données introduites dans les interfaces d’IA générative.

Voici quelques-unes des nombreuses façons dont l’IA générative peut soudainement transformer une expérience positive et bénéfique en un casse-tête de sécurité coûteux et négatif :

  1. Fuite de données d’entreprise sensibles.
    Vous avez peut-être entendu ou lu que le personnel de Samsung a accidentellement téléchargé du code sur le chatbot ChatGPT d'Open AI. Non seulement cela a exposé des données exclusives, mais cela a également créé un cauchemar majeur en termes de relations publiques à l’échelle mondiale pour Samsung. Et, probablement, Samsung n’est pas la seule organisation à qui cela est arrivé ou pourrait arriver. Cela pourrait être votre prochaine entreprise.

  2. Diffusion de fausses informations et de préjugés.
    Les outils d’IA générative comme ChatGPT sont alimentés par de grands modèles linguistiques (LLM). Les LLM sont formés sur des ensembles de données provenant d’articles, de sites Web et de tout ce qui se trouve entre les deux, y compris des informations erronées et incorrectes. Il est facile de se laisser tromper en pensant que les outils d’IA générative ne produiront pas de fausses informations ou ne proliféreront pas de biais et ne les utiliseront pas dans vos campagnes ou pour construire vos hypothèses. Mais avant que vous ne vous en rendiez compte, la frontière entre la vérité et le mensonge s’estompe, tout comme votre réputation. De plus, les biais et les informations erronées produites par les chatbots génératifs d'IA ne commencent même pas à aborder le problème posé par les hallucinations de l'IA !

  3. Mauvaise gestion des informations personnelles identifiables (PII).
    Les PII peuvent être collectées lors d’interactions avec des outils d’IA générative. Il appartient aux entreprises derrière ces outils de respecter des mesures strictes de confidentialité des données. Si ce n'est pas le cas , vous risquez de vous retrouver confronté à une prise de contrôle de compte . Ou alors vous risquez d'avoir de graves ennuis juridiques et de vous retrouver en conflit avec vos clients si des acteurs malveillants mettent la main sur leurs informations personnelles.

Heureusement, de nombreuses organisations prennent des mesures pour maintenir des pratiques sûres. Plusieurs entreprises proposent des formations sur les aspects positifs et négatifs de l’IA générative. Elles encouragent également leurs employés à explorer et à expérimenter de manière responsable. D’autres ont conçu des politiques d’IA génératives pour la reconnaissance des employés et les conseils nécessaires.

Bien que ces mesures présentent certainement des avantages, la popularité, la complexité et l’évolution rapide des outils d’IA générative exigent davantage de sécurité. De plus, il y aura toujours une erreur humaine dans l’équation.

Maintenant, je suis sûr que vous l’avez déjà entendu une fois. Ou peut-être plusieurs fois : Ce que vous ne pouvez pas voir peut vous blesser. Et lorsqu’il s’agit de l’utilisation d’outils d’IA générative sur le lieu de travail, cela ne pourrait pas être plus vrai. Un manque de sensibilisation pourrait conduire votre entreprise à se retrouver en mauvaise posture.

Pour se protéger contre les menaces liées à l’utilisation de l’IA générative sur le lieu de travail, les entreprises doivent adopter une approche de confiance zéro . N’oubliez pas que le principe clé du Zero Trust est : « Ne jamais faire confiance. Vérifiez toujours. L’une des stratégies clés de sécurité Zero Trust que vous devriez prioriser aujourd’hui est la détection de l’accès aux outils d’IA générative.

En permettant une meilleure visibilité et un contrôle précis sur la manière dont les employés exploitent les outils d’IA générative au travail, les équipes de sécurité sont habilitées à identifier et à gérer les risques potentiels. Cela aide les organisations à :

  1. Protégez les données, les informations personnelles identifiables, le code, la propriété intellectuelle (PI) et bien plus encore.
  2. Activer et appliquer des politiques qui prennent en charge les directives de l’entreprise.
  3. Maintenir leur sécurité contre toute utilisation abusive intentionnelle ou accidentelle des outils d’IA générative.

Alors que le paysage de l’IA générative continue de se développer rapidement, les entreprises peuvent se reposer plus facilement avec un cadre de sécurité Zero Trust qui fournit une détection d’outils d’IA générative.

Pour en savoir plus sur la manière dont F5 peut vous aider à atténuer les risques potentiels liés à l'utilisation d'outils d'IA générative sur le lieu de travail, consultez cet article DevCentral de F5 BIG-IP SSL Orchestrator .