Comment apprivoiser l’IA par la prise en compte des risques?

Par

Cathy Cobey

Leader mondiale, Services consultatifs, IA de confiance d’EY

Leader éclairée en matière de confiance dans le numérique. Défenseure de la présence des femmes dans le secteur de la technologie. Amatrice de bonne chère. Adepte des festivals de films. Avide de connaissances. Mère.

6 minutes de lecture 8 janv. 2020
Sujets connexes Confiance

Si une seule erreur (réelle ou perçue) peut suffire à faire perdre confiance en l’IA, comment rassurer durablement les utilisateurs?

Chaque défi au sein d’une entreprise est une occasion de faire intervenir l’intelligence artificielle (« IA »). Toutefois, les organisations hésitent à saisir ces occasions, car, se méfiant de l’IA, elles choisissent avec prudence les domaines où elles l’utilisent. 

Pour les organisations, la confiance est la pierre d’assise pour amener les parties prenantes à apprivoiser l’IA et à jouer un rôle actif dans leurs systèmes d’IA. Toutefois, en cette ère où l’information est accessible instantanément, les erreurs peuvent être coûteuses, et il est plus difficile d’avoir une seconde chance. Les organisations qui veulent réussir dans un monde tourné vers l’IA doivent implanter une culture d’optimisation en fonction des risques à toutes les étapes du cycle de l’IA. Pour y parvenir, elles doivent transformer la gestion des risques, souvent considérée comme une simple fonction réactive, en un outil puissant, dynamique et tourné vers l’avenir qui renforcera la confiance.

Implanter une confiance en l’IA

L’IA apporte son lot de nouveaux risques et a des répercussions qui appartenaient traditionnellement au champ des décisions humaines, et non à celui du développement technologique.

Les risques et les répercussions de l’IA étant de nature technique, éthique et sociale, un nouveau cadre est nécessaire pour cerner et mesurer les risques liés à l’IA, et y répondre. Ce cadre doit solidement s’ancrer dans les structures de gouvernance et de contrôle existantes, mais il doit également comporter de nouveaux mécanismes adaptés aux risques particuliers liés à l’IA.

Risks of AI

Gérer les risques

La gestion des risques liés à l’IA ne se limite pas à la prévention des effets sur la réputation ou des conséquences de la législation ou de la réglementation. Elle permet aussi d’être perçue comme digne de confiance. Le discours public sur l’IA se résumant souvent aux risques qui y sont associés, il faudra du temps et un dialogue actif avec les parties prenantes pour instaurer la confiance à l’égard des systèmes d’IA.

La confiance en l’IA s’instaurera grâce à une approche coordonnée. Chez EY, nous pensons qu’il existe cinq piliers de la confiance :

  1. Promotion – Les parties prenantes comprennent-elles les avantages de l’IA et comment celle-ci améliorera les produits et services qu’elles reçoivent? 
  2. Capacités – Est-ce que l’IA renforce et améliore la marque, le produit, le service et l’expérience des parties prenantes de l’organisation?
  3. Cohérence – L’IA est-elle utilisée en conformité avec la mission déclarée de l’organisation et soutient-elle sa réalisation au fil du temps?
  4. Ouverture – L’organisation a-t-elle communiqué efficacement et noué le dialogue avec ses principaux groupes de parties prenantes relativement à son utilisation de l’IA et à ses avantages et risques potentiels?
  5. Intégrité – L’approche de l’organisation en ce qui concerne la conception et le fonctionnement d’une IA de confiance correspond-elle aux attentes de ses parties prenantes?

La responsabilité est l’élément primordial sous-tendant les cinq piliers de la confiance établis.

La responsabilité est le fondement de la confiance et le point d’inflexion à partir duquel une organisation passe des intentions aux actes. Quel que soit le niveau d’autonomie d’un système d’IA, la responsabilité ultime d’un algorithme doit incomber à une personne ou à une organisation. En intégrant la gestion des risques dans ses outils de conception et ses mécanismes de surveillance de l’IA, les organisations peuvent démontrer qu’elles sont prêtes à rendre des comptes et à prendre la responsabilité des prévisions, décisions et comportements des systèmes d’IA. 

Les organisations de premier plan au chapitre de l’IA intègrent dès le départ la confiance intrinsèque dans les systèmes d’IA, ce qui les aidera à ne plus envisager l’IA sous l’angle des problèmes possibles mais plutôt sous celui des conditions pour réussir.
Amy M. Brachio
Leader, Services consultatifs en risques et amélioration de la performance d’EY à l’échelle mondiale

La compréhension du fonctionnement de l’IA ainsi que du moment et de la manière dont les risques pourraient émerger n’étant pas encore parfaite, de nombreux systèmes d’IA sont considérés, par défaut, à haut risque et sont abordés avec prudence. Pour contrer cette réaction, différents outils et plateformes sont développés pour aider les organisations à quantifier l’impact et la fiabilité de leurs systèmes d’IA.

Quantifier les risques liés à l’IA

Pour que l’IA puisse atteindre son plein potentiel, les organisations doivent être capables de prévoir et de mesurer les conditions qui amplifient les risques et minent la confiance.

Pour comprendre les inducteurs de risque liés à un système d’IA, il faut prendre en compte un large éventail de facteurs contributifs, notamment sa conception technique, son impact sur les parties prenantes et la maturité des contrôles. Chacun de ces facteurs, tant dans sa conception que dans son fonctionnement, peut influer sur le niveau de risque d’un système d’IA. Comprendre les inducteurs de risque d’un système d’IA est une tâche complexe. Elle nécessite un examen minutieux des répercussions potentielles sur les parties prenantes tout au long du cycle de vie du système d’IA.

Le développement d’une plateforme d’IA de confiance doit tenir compte de trois éléments importants pour la gestion des risques liés à un système d’IA :

  • Risque technique – On évalue les technologies sous-jacentes, l’environnement technique d’exploitation et le degré d’autonomie.
  • Impacts sur les parties prenantes – On prend en compte les buts et les objectifs de l’agent d’IA ainsi que les impacts financier, émotionnel et physique sur les utilisateurs externes et internes, de même que les risques liés à la réputation, et les risques réglementaires et légaux.
  • Efficacité des contrôles – On prend en compte l’existence et l’efficacité opérationnelle des contrôles visant à atténuer les risques liés à l’IA.

Ces éléments constituent, ensemble, une approche intégrée permettant d’évaluer, de quantifier et de contrôler l’impact et la fiabilité de l’IA. Une plateforme d’IA de confiance utilise des outils Web de schématisation et d’évaluation interactifs pour dresser le profil de risque d’un système d’IA, ainsi qu’un modèle analytique avancé pour convertir les réponses des utilisateurs en une cote combinée tenant compte du risque technique, des impacts sur les parties prenantes et de l’efficacité des contrôles d’un système d’IA.

Les organisations peuvent tirer parti de ce type de plateforme pour mettre au point un processus de quantification des risques lors de la conception d’un bureau robuste et d’une analyse critique au début de leur projet d’IA. Intégrer, dès le départ, des exigences de confiance dans la conception des systèmes d’IA permettra une formation plus efficace à l’IA et une plus grande confiance et adhésion des utilisateurs.

Répondre aux risques liés à l’IA

Pour répondre aux risques liés à l’IA, il faudra avoir recours à des pratiques de contrôle nouvelles et innovantes qui pourront suivre l’évolution rapide des techniques d’apprentissage adaptatif de l’IA.

Lors de l’élaboration d’une stratégie d’atténuation des risques, il est important qu’une organisation utilise une approche intégrée qui prend en compte les objectifs du système d’IA, les impacts potentiels sur les parties prenantes (tant positifs que négatifs), la faisabilité technique et la maturité des mécanismes de contrôle, de même que la tolérance au risque de l’opérateur du système d’IA.

Avec l’IA, qui peut continuer à évoluer et à adapter son cadre décisionnel après sa mise en service, il importe que des mécanismes de contrôle solides soient mis en place pour établir la confiance. Les organisations doivent être en mesure d’évaluer continuellement si un système d’IA fonctionne à des niveaux de performance acceptables et de déceler quand un nouveau risque émerge.

 

Pour instaurer et maintenir la confiance en l’IA, il faut investir dans des techniques de gestion des risques innovantes et ne pas s’arrêter à la compréhension des risques potentiels afin de développer un système de mesure des risques plus approfondi.

Miser sur la confiance en l’IA comme avantage concurrentiel

L’IA a déjà commencé à bouleverser notre façon de travailler et de vivre. Les organisations qui prospéreront dans un monde d’IA seront celles qui pourront optimiser les boucles de rétroaction au niveau des données et de la confiance pour attirer plus d’utilisateurs et accélérer leur adoption de l’IA.

En agissant de bonne foi, en développant un solide système de gestion des risques liés à l’IA et en faisant intervenir les utilisateurs dans leur projet d’IA, les organisations contribueront grandement à établir la confiance des utilisateurs comme facteur de différenciation concurrentielle et à traduire la prévoyance en matière de risques en une meilleure compréhension de l’IA.

Résumé

La confiance doit être au cœur des systèmes d’IA des organisations, qui doivent miser sur la prévoyance en matière de risques pour accélérer leur compréhension de l’IA. Les outils avancés d’IA peuvent aider une organisation dans son projet en lui fournissant des renseignements sur les sources et les inducteurs de risque et en guidant une équipe de conception d’IA dans l’élaboration de stratégies ciblées en matière d’atténuation des risques.

À propos de cet article

Par

Cathy Cobey

Leader mondiale, Services consultatifs, IA de confiance d’EY

Leader éclairée en matière de confiance dans le numérique. Défenseure de la présence des femmes dans le secteur de la technologie. Amatrice de bonne chère. Adepte des festivals de films. Avide de connaissances. Mère.

Sujets connexes Confiance