Aborder les questions relatives aux risques, à la confiance et à la sécurité dans les modèles d’IA

By Lori Perri | 4-minute read | September 5, 2023

Synthèse

6 raisons pour lesquelles vous devez intégrer la structure AI TRiSM dans les modèles d’IA

L’IA générative suscite une attention particulière dans les projets pilotes portant sur l’intelligence artificielle, mais les entreprises négligent bien souvent les risques jusqu’à ce que les modèles ou les applications d’IA soient déjà en cours de production ou même déjà exploités. Un programme complet de gestion de la confiance, du risque et de la sécurité de l’IA (AI trust, risk, security management ou TRiSM) vous aide à intégrer en amont les principes de gouvernance qui font cruellement défaut et à garantir de manière proactive que les systèmes d’IA sont conformes, équitables et fiables et qu’ils protègent la confidentialité des données.

Si vous hésitez encore sur le bien fondé de la démarche AI TRiSM, vous pouvez étudier les six facteurs de risque suivants, qui sont souvent imputables à un manque de compréhension de la part des utilisateurs de ce qui se passe réellement à l’intérieur des modèles d’intelligence artificielle.

1. Dans la majorité des cas, les collaborateurs ne sont pas en mesure d’expliquer ce qu’est l’IA et ce qu’elle permet d’accomplir aux responsables, aux utilisateurs et à ceux qui ont recours à des modèles d’IA.

  • Ne vous contentez pas simplement de définir ce qui caractérise l’IA ; soyez en mesure de formuler :

    • des précisions ou arguments qui, pour un public spécifique, illustrent clairement le fonctionnement d’un modèle ;

    • les forces et les faiblesses du modèle ;

    • son comportement éventuel ;

    • tout biais potentiel.

  • Si vous disposez de ces informations, communiquez les ensembles de données utilisés pour le processus d’apprentissage automatique et les méthodes utilisées pour sélectionner ces données. Cela peut permettre de mettre en évidence des sources potentielles de manque d’objectivité.

2. Tous les internautes peuvent accéder à ChatGPT et à d’autres outils exploitant l’IA générative.

  • L’IA générative peut potentiellement transformer les modalités qui régissent la concurrence et les activités des entreprises, mais elle est également synonyme de nouveaux risques qui ne peuvent pas être traités par des mécanismes de contrôle conventionnels.

  • Les risques associés aux applications d’IA générative hébergées et basées sur le cloud, entre autres, sont considérables et évoluent rapidement.

3. Les outils d’IA tiers présentent des risques en matière de confidentialité des données.

  • Lorsque votre entreprise intègre des modèles et des outils d’IA de fournisseurs tiers, vous incorporez également les vastes ensembles de données utilisés pour former ces modèles d’IA.

  • Vos utilisateurs pourraient accéder à des données confidentielles dans les modèles d’IA qui ont été fournies par d’autres entreprises, ce qui pourrait être source de conflits sur le plan règlementaire, commercial et porter atteinte à la réputation de votre société.

D’ici 2026, les entreprises qui mettent en œuvre les principes de transparence, de confiance et de sécurité de l’IA verront leurs modèles d’IA améliorer de 50 % leurs résultats en termes d’adoption, d’objectifs commerciaux et d’acceptation par les utilisateurs.

Source : Gartner

4. Les modèles et applications d’IA supposent une supervision continue.

  • Des processus spécialisés de gestion des risques doivent être intégrés aux opérations des modèles d’IA (ModelOps) pour que l’IA puisse assurer un fonctionnement conforme, équitable et éthique.

  • Le nombre d’outils prêts à l’emploi étant relativement limité, vous devrez probablement développer des solutions personnalisées pour votre processus de gestion de l’IA.

  • Les mesures de contrôle doivent être appliquées en continu : par exemple, tout au long du développement du modèle et de l’application, des tests et du déploiement, ainsi que des opérations courantes.

5. La détection et la neutralisation des attaques malveillantes visant l’IA requièrent de nouvelles méthodes.

  • Les attaques perpétrées contre l’IA (qu’elles soient internes ou intégrées dans des modèles tiers) entraînent divers types de préjudices et de pertes pour l’entreprise, par exemple, des préjudices financiers, des atteintes à la réputation ou à la propriété intellectuelle, aux informations à caractère personnel ou aux données propriétaires. 

  • Prévoyez des mesures de contrôle et des processus spécialisés pour tester, valider et améliorer la robustesse des flux de travail de l’IA, en plus de ceux utilisés pour d’autres types d’applications.

6. Des règlements sont appelés à définir prochainement la mise en place de mesures de contrôle de la conformité.

  • La loi européenne sur l’IA et d’autres textes règlementaires en Amérique du Nord, en Chine et en Inde établissent déjà des règles pour gérer les risques liés aux applications de l’IA.

  • Soyez prêt à répondre aux exigences, au-delà de ce qui est déjà requis par des règlementations telles que celles relatives à la confidentialité des données.

Découvrez les dessous de l’étude

Le point de vue d’Avivah Litan, vice-président analyste chez Gartner

« Les entreprises qui ne parviennent pas à gérer de manière cohérente les risques liés à l’IA ont une probabilité accrue de subir des conséquences négatives, notamment de voir des projets échouer ou de souffrir des atteintes à la protection des données. En effet, des résultats inexacts, contraires à l’éthique ou fortuits, des erreurs de processus et l’interférence d’acteurs malveillants peuvent entraîner des failles de sécurité, des pertes financières et des atteintes à la réputation, ainsi que des préjudices pour la collectivité. Les mauvaises performances de l’IA peuvent également conduire les entreprises à prendre des décisions commerciales non optimales. »

3 messages à faire passer à vos pairs

1

Les capacités offertes par la structure AI TRiSM garantissent la fiabilité, la confiance, la sécurité et la confidentialité des modèles.


2

Elle permet d’obtenir de meilleurs résultats en termes d’adoption de l’IA, de réalisation des objectifs commerciaux et d’acceptation par les utilisateurs.


3

Envisagez la démarche AI TRiSM comme un ensemble de solutions permettant d’intégrer plus efficacement des mécanismes de protection lors de la mise en œuvre de l’IA et de mettre en place une gouvernance de l’IA.

Partager cet article

Avivah Litan est vice-présidente analyste distinguée chez Gartner Research. Mme Litan est actuellement membre de l'équipe ITL AI qui couvre l'IA et la Blockchain. Elle est l'analyste principale de Gartner qui a commencé et continue de couvrir le sujet des risques et de la sécurité de l'IA, qui est très demandé depuis le lancement de ChatGPT. Mme Litan aide également à couvrir l'utilisation de l'IA, y compris l'IA générative, dans la cybersécurité. Elle se spécialise dans tous les aspects de l’innovation Blockchain, allant des chaînes publiques aux chaînes privées, en passant par les cas d’utilisation, la sécurité et les technologies émergentes. Mme Litan possède une solide expérience dans de nombreux aspects de la cybersécurité et de la fraude, y compris l'intégration de l'IA dans ces domaines. Cette expérience est utile dans sa couverture actuelle de la sécurisation et de la protection des modèles, des applications et des données d'IA ainsi que des applications blockchain. Son expérience soutient également ses recherches sur l'intégration de technologies avancées telles que la blockchain, l'IoT et l'IA pour résoudre des cas d'utilisation spécifiques, tels que la détection de faux contenus ou de faux biens. Avant de rejoindre Gartner, Mme Litan a travaillé comme directrice des systèmes financiers à la Banque mondiale. Elle a également travaillé comme journaliste et chroniqueuse pour le Washington Times. Elle a obtenu sa maîtrise en sciences au M.I.T. et a obtenu un cours de directeur général à la Harvard Business School.

Favorisez la concrétisation de vos priorités stratégiques décisives