Main utilisant un stylet sur une tablette numérique

Libérer le potentiel de l’IA agentive : définitions, risques et garde‑fous

Contributeurs:
Nathalie DiBerardino, conseillère senior, IA responsable, EY Canada 
Alex Wang, Consultation, Stratégie et conception de l'IA, EY États-Unis  Manhar Arora, leader, IA responsable et Protection des données et de la vie privée, EY États-Unis

Découvrez ce qui distingue l’IA agentive des autres systèmes ainsi que le rôle essentiel de la gouvernance pour arriver à exploiter son potentiel commercial de manière responsable.


En bref

  • L’IA agentive diffère des systèmes d’IA classique et générative. Elle peut prendre des décisions et les mettre en œuvre de manière autonome.
  • Ces capacités d’autonomie de l’IA pourraient ouvrir nombre de possibilités aux entreprises du Canada et du monde entier.
  • Pour profiter de tout le potentiel de l’IA agentive, il faut commencer par cerner ses caractéristiques et repérer les nouveaux risques qui pourraient en découler, puis définir la manière de contrôler son utilisation pour qu’elle soit responsable et efficace.

À mesure que de nouvelles itérations de l’intelligence artificielle (IA) font leur apparition, les organisations doivent composer avec un éventail de risques changeant. Pour aborder l’IA de manière responsable et exploiter tout son potentiel, il faut d’abord en cerner la portée et les possibilités tout en atténuant les risques. Ce qui se traduit par une vaste analyse de l’essor actuel de l’IA agentive, un système capable de prendre des mesures par lui‑même en toute autonomie et ne nécessitant qu’une intervention humaine minimale. Le temps consacré à bien comprendre les différences et nuances des systèmes d’IA agentive vous aidera à en tirer le meilleur parti, tout en renforçant la gouvernance en tant qu’avantage concurrentiel.

En progression depuis 2024, l’IA agentive, et plus particulièrement les agents d’IA, représente maintenant une nouvelle catégorie de systèmes dotés d’un niveau plus élevé d’agentivité ou d’exécution indépendante. Contrairement aux systèmes d’IA classique et générative, l’IA agentive a la capacité de prendre des décisions en toute autonomie et d’agir en conséquence. Cette capacité, conjuguée à la complexité des objectifs que l’IA agentive peut traiter, la distingue des autres formes d’IA.

L’IA agentive tire ses origines d’un discours réglementaire mondial qui a joué un rôle central dans son développement, et, de ce fait, le terme lui‑même n’est pas encore explicitement défini dans des réglementations comme la loi européenne sur l’IA. Même si l’IA agentive n’occupe pas encore une place centrale dans les efforts de réglementation, les organisations d’aujourd’hui se doivent de lui accorder toute leur attention.

Le déploiement d’agents d’IA dans l’entreprise influera de diverses manières sur les cadres de gouvernance. Plus précisément, à mesure qu’évolue l’IA agentive, qui est de plus en plus avancée et peut fonctionner sans intervention humaine pour exécuter des tâches complexes, les organisations auront besoin de contrôles préventifs et de détection rehaussés pour régir son utilisation et surveiller en permanence le comportement et la performance des systèmes.

C’est pourquoi les organisations se doivent de bien définir l’IA agentive, puis de regrouper stratégiquement les ressources et les investissements de gestion des risques et de les mettre en phase avec les priorités appropriées.

Silhouette d’une personne dans un bureau moderne
1

Chapitre 1

Qu’est‑ce que l’IA agentive et en quoi est‑elle différente des systèmes d’IA classique ou générative?

L’IA agentive est une catégorie qui fait appel aux agents d’IA, alors que l’IA générative est une catégorie qui fait intervenir les grands modèles de langage (LLM). Ces systèmes sont différents de ceux auxquels nous sommes habitués, car l’IA agentive peut interagir avec son environnement, prendre des décisions et agir de manière indépendante sur la base d’une programmation et d’expériences acquises.
 

Cette capacité avancée marque un écart important avec les modèles d’IA classique et générative. Par exemple, alors que les LLM actuels font la preuve de leurs connaissances et d’intelligence dans de nombreux domaines, leur capacité à exécuter de manière indépendante des tâches du monde réel est limitée.

 

De la même manière, les technologies automatisées comme l’automatisation des processus par la robotique (APR) exécutent généralement des tâches basées sur une programmation explicite, mais n’ont pas la capacité de s’adapter ou de fonctionner de manière indépendante.
 

Essentiellement, si les LLM actuels comme GPT-4 et Llama fonctionnent comme un cerveau dans un environnement virtuel, les systèmes d’IA agentive possèdent les capacités cognitives et les moyens d’interagir avec le monde, ce qui leur permet d’influer sur leur environnement. Ainsi, l’IA agentive est dotée d’une capacité plus avancée et plus polyvalente pour gérer des tâches complexes et des environnements dynamiques.
 

Plus précisément, les agents d’IA constituent une implantation pratique de l’IA agentive.

Qu’est‑ce qu’un agent d’IA?

Il s’agit d’une entité logicielle qui peut :

  • Percevoir son environnement
  • L’analyser
  • Prendre des mesures pour atteindre des objectifs précis

Les agents d’IA peuvent être simples, comme les assistants personnels alimentés par l’IA, ou complexes, comme les véhicules autonomes.

L’IA agentive et les agents d’IA permettent des capacités que les systèmes d’IA classique ou générative ne sont tout simplement pas en mesure d’offrir.

Composants essentiels de l’IA non agentive et des agents d’IA
Deux professionnels discutant à l’intérieur d’un bureau lumineux
2

Chapitre 2

Comment reconnaître l’IA agentive?

Pour distinguer les systèmes d’IA agentive des autres technologies, il faut mesurer le niveau de leur agentivité. Il s’agit de cerner l’ampleur du contrôle qu’un système d’IA a sur ses actions, y compris la capacité de faire des choix, d’agir en conséquence et d’influencer les résultats. Pour être agentive, l’IA doit pouvoir identifier et atteindre des objectifs de manière non aléatoire et autonome, indépendamment de la programmation ou de l’intervention humaine.

Il faudrait considérer cette capacité d’agir comme une courbe spectrale qui s’étend sur de multiples dimensions ou capacités et est susceptible de continuer à progresser.

Comment déterminer si l’IA est agentive?

Deux capacités principales servent de critères pour déterminer l’agentivité d’un système d’IA.

1. Complexité des objectifs

Il s’agit d’évaluer la capacité du système à décomposer, à équilibrer, à séquencer et à réaliser des tâches complexes1. Par exemple, la capacité d’un système qui peut s’attacher à au moins un objectif de manière logique et autodéterminée serait qualifiée de faible sur le plan de la complexité des objectifs. Par ailleurs, la capacité de décomposer des objectifs complexes en de nombreux sous‑objectifs différents – où le succès dépend de l’équilibre et de l’enchaînement de sous-objectifs qui peuvent être difficiles à atteindre – serait considérée comme importante sur le plan de la complexité des objectifs2. Une fonction d’entreprise d’un réseau informatique gérée par l’IA agentive est un bon exemple d’une telle complexité.

Pour satisfaire au critère de complexité des objectifs, un système doit être capable de :

  • Nommer certains objectifs et d’agir en conséquence, et ce, sans processus rigide et prédéfini pour les atteindre (c’est‑à‑dire une formule ou une fonction)
  • Planifier les états futurs et choisir une voie logique et raisonnable pour atteindre cet objectif

2. Exécution indépendante

Il s’agit de savoir dans quelle mesure un système peut atteindre des objectifs de manière fiable tout en limitant l’intervention et la supervision humaines3.

Un preneur de notes automatisé qui fonctionne dans un domaine étroit et prédéfini, qui effectue des tâches de routine précises sans prendre des décisions indépendantes importantes, est un système dont l’exécution indépendante est faible ou minimale4.

En comparaison, les voitures autonomes capables d’exécuter des tâches de conception complexe dans plusieurs domaines sans intervention humaine ou si peu, et qui prennent des mesures de manière indépendante en fonction d’objectifs de haut niveau établis par l’homme, sont considérées comme ayant un niveau élevé d’exécution indépendante. Ce type de système peut également apprendre et se coordonner avec d’autres systèmes d’IA agentive, le tout de manière autonome, sans qu’un humain le lui demande.

Pour satisfaire au critère d’exécution indépendante, un système doit être capable :

  • D’exécuter des tâches sans dépendre de règles prédéfinies ou de prédictions et instructions contraignantes provenant de modèles d’apprentissage automatique
  • D’atteindre ses objectifs dans un contexte où l’intervention et la supervision humaines sont limitées

À quoi ressemble l’IA agentive dans la pratique?

Les outils de recherche approfondie fondés sur des agents, qui gagnent en popularité dans les entreprises d’IA et sont considérés comme des systèmes d’IA agentive parmi les plus évolués du marché, utilisent le raisonnement pour synthétiser de grandes quantités d’informations en ligne et accomplir des tâches de recherche en plusieurs étapes.

Ainsi sont démontrés :

  • La complexité de l’objectif : le système a un objectif, effectue des recherches approfondies sur le sujet de l’utilisateur et utilise toutes les informations qu’il juge utiles pour répondre à la demande.
  • L’exécution indépendante : le système exécute la tâche de l’utilisateur sans avoir besoin d’informations supplémentaires comme la sélection des sources ou la profondeur de la recherche, et émet des jugements sur le bien‑fondé ou la validité sans supervision.

Un autre exemple est celui d’un agent de codage IA commercialisé qui explore, planifie et exécute de manière autonome des modifications complexes de la base de code à l’aide d’outils disponibles.

Ainsi sont démontrés :

  • La complexité de l’objectif : l’objectif qui correspond aux spécifications de l’utilisateur est atteint.
  • L’exécution indépendante : le système peut exécuter le code dans l’intervalle et corriger toute erreur subséquente jusqu’à ce qu’une base de code finale et fonctionnelle soit achevée, et lire la base de code pour en tirer le contexte nécessaire et pertinent sans que l’utilisateur ait à le demander.

Comment mesurer la capacité d’agir d’un système d’IA?

Pour mesurer la capacité d’agir ou l’agentivité d’un système d’IA, nous combinons les deux capacités primaires que sont la complexité des objectifs et l’exécution indépendante avec quatre capacités secondaires :

  1. Généralité : capacité d’un système à fonctionner avec succès dans plusieurs domaines d’utilisation.
  2. Adaptabilité : capacité d’un système à atteindre ses objectifs alors que l’intervention humaine est limitée, en particulier dans des scénarios pour lesquels il n’a pas été explicitement conçu.
  3. Complexité environnementale : capacité d’un système à atteindre ses objectifs dans des environnements complexes.
  4. Incidence : la nature et l’étendue de l’influence qu’un système a pendant son déploiement.

Les capacités secondaires ne sont pas en elles-mêmes des indicateurs de la capacité agentive d’un système. Cela s’avère, car un système peut présenter des niveaux très faibles de ces qualités tout en étant raisonnablement considéré comme une IA agentive. Mais elles sont utiles pour déterminer le niveau de capacité d’action.

Comment tout cela se présente‑t‑il concrètement?

Imaginez un agent d’IA qui peut s’exécuter dans un nombre limité de domaines. Cette IA est quand même qualifiée d’agentive parce qu’elle fonctionne sans intervention humaine pour atteindre des objectifs très complexes, un facteur qui devrait être pris en compte pendant la conception des contrôles d’observabilité nécessaires pour surveiller le comportement d’un système d’IA agentive.

Où se situent les outils d’IA classique et les systèmes automatisés sur la courbe de l’agentivité?

Selon notre cadre de définition, la meilleure façon de décrire l’agentivité est de la présenter comme un ensemble de traits qui existent pour chaque capacité. Un système est considéré comme de l’IA agentive lorsqu’il franchit le seuil minimum de cet ensemble.

Si on la compare aux autres types de systèmes d’automatisation et d’IA, l’IA agentive est la seule technologie qui possède chacune des six capacités définies dans notre cadre, qu’il s’agisse des critères primaires ou secondaires.

Les outils d’automatisation et d’IA classique ne sont pas dotés des six capacités
Les systèmes d’IA agentive présentent différents niveaux d’agentivité et de capacités
Groupe de professionnels en discussion à l’intérieur d’un bureau moderne
3

Chapitre 3

Quelle est l’importance à accorder à l’IA agentive quand on parle de risques organisationnels et de contrôles internes?

Tous les systèmes d’IA présentent des risques communs. Or l’IA agentive offre des capacités et des cas d’usage élargis qui introduisent des risques supplémentaires, souvent importants, qui doivent être pris en considération. Par exemple, les risques communs à tous les systèmes d’IA sont les suivants :

IA classique

IA générative

IA agentive

Manque de données prêtes pour l’IA

Manque de transparence et d’explicabilité

Préjugés et amplification des résultats injustes

Violations de la confidentialité des données

Attaques adverses

Résultats peu fiables et lacunes sur le plan de la robustesse

Cependant, un examen plus approfondi des systèmes d’IA agentive dans la perspective des nouveaux risques révèle un éventail de risques beaucoup plus large et plus varié qui doit désormais être intégré dans le cycle de vie général de la gouvernance de l’IA.De quoi s’agit‑il exactement?

Risques nouveaux ou accrus découlant de l’IA agentive :

Catégorie de risque de l’IA agentive

Risques

Description

Implication humaine

Supervision inadéquate

L’implication humaine réduite dans la surveillance des systèmes d’IA agentive peut se traduire par l’insuffisance des contrôles, augmentant ainsi le risque de résultats nuisibles ou contraires à l’éthique.

Parti pris pour l’automatisation

Les utilisateurs pourraient accorder une confiance non méritée aux décisions prises par l’IA agentive, ce qui entraînerait une dépendance excessive et une incapacité à évaluer de manière critique les résultats générés par l’IA.

Manque de clarté dans la prise de décisions

Le processus décisionnel de l’IA agentive peut être opaque, ce qui fait que les parties prenantes ont du mal à comprendre le comment et le pourquoi de certaines mesures.

Flou des mécanismes de la responsabilité

Étant donné les capacités d’exécution indépendante de l’IA agentive, aucun cadre n’est véritablement établi concernant la responsabilité et l’obligation de rendre compte des mesures prises par l’IA.

Décalage entre les objectifs de l’IA

Dérives des données et des objectifs

Au fil du temps, les modifications des données d’entrée ou des objectifs d’un système d’IA agentive peuvent conduire à un décalage par rapport aux intentions initiales, ce qui entraîne des conséquences involontaires.

Utilisations secondaires

La possibilité qu’un système d’IA agentive soit réaffecté à d’autres utilisations involontaires soulève des questions éthiques et juridiques concernant le déploiement et les conséquences.

Piratage des structures de récompenses

L’IA agentive pourrait exploiter les failles dans les structures de récompenses pour atteindre des objectifs non conformes aux objectifs recherchés, entraînant des comportements nuisibles ou contre‑productifs.

Comportements émergents et objectifs cachés

L’IA agentive peut avoir des comportements inattendus ou poursuivre des objectifs cachés que ses concepteurs n’avaient pas prévus, ce qui complique la gestion des risques.

Déterminisme algorithmique

Les agents d’IA rudimentaires utilisés pour la prise de décisions peuvent ne pas être aptes à suivre l’évolution des environnements, à saisir les nouveaux paramètres de décision et à détecter les nuances dans leur évaluation qui nécessiteraient une intervention humaine, se traduisant par une trop grande rigueur dans le processus décisionnel.

Erreurs d’amplification

Boucles de rétroaction déstabilisantes

Des interactions entre systèmes d’IA agentive peuvent créer des boucles de rétroaction qui amplifient les erreurs ou les comportements indésirables, entraînant une instabilité systémique.

Cascade de défaillances

L’interconnectivité des systèmes d’IA agentive peut entraîner une réaction en chaîne de défaillances, où les défaillances d’un premier système déclenchent des défaillances dans d’autres systèmes, créant des perturbations généralisées.

Cette évolution dans la dynamique des risques signifie que toutes les organisations qui se lancent dans le développement de l’IA agentive doivent implanter des contrôles renforcés qui tiennent compte des capacités inhérentes à ces systèmes.

Dans l’environnement de contrôle de l’IA agentive, quelles sont les bonnes pratiques en matière de lisibilité et de clarté?

Pour ce qui est de l’IA agentive, un environnement de contrôle efficace appliquera un cadre de gouvernance de l’IA solide et un système complet de contrôles préventifs et de détection sur les composants internes et tiers des systèmes d’IA. Il est également important d’établir le bon équilibre entre les contrôles préventifs et les contrôles de détection.

Les contrôles préventifs peuvent comprendre :

  • Un accès restreint adapté aux tâches de l’IA agentive, réduisant le risque d’interactions non autorisées susceptibles de compromettre son intégrité.
  • Des filtres de données sur la confidentialité, l’éthique et la sécurité pour protéger les informations sensibles selon les exigences réglementaires et les normes éthiques.
  • Des techniques de protection de la vie privée pour chiffrer, anonymiser ou masquer les données et ainsi protéger les renseignements personnels et maintenir la conformité avec les réglementations en matière de protection des données.
  • Les essais et la validation de modèles pour évaluer la performance et la fiabilité avant le déploiement, pour s’assurer que l’IA agentive fonctionne comme prévu, sans produire de résultats nuisibles.

Pourquoi les essais et la validation avant production sont‑ils si importants pour la gouvernance des systèmes d’IA agentive?

L’IA agentive présente un degré élevé d’exécution indépendante et repose sur un processus décisionnel complexe. Les essais sont essentiels pour évaluer la performance du système, détecter les vulnérabilités possibles, s’assurer que l’IA fonctionne selon les paramètres prévus, se protéger contre les conséquences involontaires et renforcer la confiance dans la technologie.

Pendant que vous planifiez les tests de contrôle, il est important :

  • de définir clairement les problèmes et les fonctions objectives;
  • de veiller à ce que les données utilisées pour la formation et les algorithmes sélectionnés soient fiables et conformes à l’éthique;
  • d’étendre les essais au‑delà des fonctionnalités de surface classiques, y compris les essais contradictoires;
  • de permettre à des vérificateurs disposant d’une expertise similaire à celle des développeurs d’IA d’origine de relever de vastes défis minutieusement.

En plus des mesures préventives, vous devrez également adopter et implanter des contrôles de détection renforcés. Ce type de contrôles vous permet d’avoir l’œil sur le comportement et la performance de l’IA agentive.

Les contrôles de détection peuvent comprendre :

  • Des programmes d’observabilité utilisant des mesures prédéterminées et des bandes de tolérance pour détecter les comportements hors limites.
  • Des mécanismes qui envoient des alertes en temps utile selon un processus de gestion des incidents établi et permettent l’obtention de réponses appropriées auprès des personnes désignées lorsque des anomalies sont détectées.
  • La supervision par l’humain se fera par l’implantation de mécanismes de contrôle et de supervision rigoureux exécutés par l’humain pour évaluer l’efficacité et la robustesse des systèmes d’IA agentive et prendre en charge la surveillance, l’intervention et la neutralisation des actions de l’agent si nécessaire.

Il faut avoir à l’esprit que les contrôles de détection existants, d’abord prévus pour les applications d’IA classique ou générative, ne suffisent peut‑être pas pour observer efficacement l’IA agentive. Étant donné que ces systèmes peuvent atteindre leurs propres objectifs sans aucune intervention humaine tout au long du processus, ils nécessitent une surveillance en temps réel, automatisée et continue.

Même les systèmes hautement autonomes nécessitent une surveillance par l’humain. Dans le cas des systèmes d’IA agentive, la supervision par l’humain doit généralement :

  • Définir les rôles et les responsabilités de l’humain dans la supervision des systèmes d’IA agentive.
  • Contrôler les boucles de rétroaction afin de repérer les problèmes et de favoriser l’amélioration continue.
  • Enregistrer, consigner et divulguer le comportement et les décisions du système en fonction des besoins, afin d’en assurer l’explicabilité et la transparence.
  • Proposer des moyens clairs et efficaces d’intervention dans les activités du système d’IA agentive, y compris la possibilité d’interrompre, de réorienter le système, voire de le mettre sous arrêt.
  • Souligner l’importance de former des opérateurs et des utilisateurs humains afin qu’ils comprennent les capacités et les limites des systèmes d’IA agentive et qu’ils acquièrent les compétences nécessaires à une surveillance efficace.

Par ailleurs, étant donné la grande diversité d’objectifs et de cas d’utilisation des systèmes d’IA agentive, les organisations ne peuvent pas s’appuyer sur une liste unique ou statique de comportements à surveiller et à mesurer. Ces listes doivent être adaptées en fonction des objectifs, risques et incidences propres à l’IA agentive, puis évalués dans le contexte de son utilisation; il faudra inclure une boucle de rétroaction vers le programme d’observation à mesure que les capacités du système d’IA agentive évoluent dans le temps.

Prise en compte des exigences techniques dans les contrôles et la gouvernance de l’IA agentive

En même temps que les interactions complexes et les environnements dynamiques de l’IA agentive exigent des organisations qu’elles examinent de manière objective les contrôles internes, les systèmes d’IA agentive nécessitent des évaluations techniques supplémentaires par rapport à celles qui pourraient être effectuées pour les systèmes d’IA en place. Une gouvernance adéquate doit désormais également prévoir des évaluations techniques des contrôles internes adaptées précisément aux systèmes d’IA agentive.

Par exemple, l’IA agentive peut exiger l’évaluation de la capacité de l’agent à percevoir son environnement avec précision face à des attaques contradictoires. Pour satisfaire à cette exigence, il faudrait tester la perception d’une voiture autonome à l’aide d’images manipulées ou de données de capteurs conçues pour tromper le système.

Dans un autre cas, il vous faudrait mesurer le temps de réponse de l’agent lorsqu’il fait face à différents scénarios et charges. Ce type de contrôle de l’analyse de la latence et du débit peut prendre la forme d’une évaluation de la réaction de l’agent lorsqu’il est mis devant une transaction ou un événement inhabituel, et d’une évaluation de sa capacité d'agir ou de passer à un autre palier d'intervention.

Plus précisément, quels types d’évaluations techniques pourraient être adaptés aux systèmes d’IA agentive pour appuyer une gouvernance appropriée?

  • Attaques contradictoires axées sur la perception : évaluation de la capacité de l’agent à percevoir son environnement avec précision face à des attaques malveillantes.

  • Données hors distribution : évaluation de la performance de l’agent lorsqu’il est aux prises avec des données ou des situations pour lesquelles il n’a aucune formation.
  • Simulation de crise : l’agent est soumis à des volumes élevés d’entrées, à des scénarios complexes ou à des événements inattendus afin d’identifier les goulots d’étranglement, les adaptations involontaires ou les points de défaillance.
  • Simulation : utilisation d’environnements simulés pour évaluer le comportement de l’agent dans une variété de scénarios, y compris avec d’autres IA et l’IA générative, dans des cas limites et d’autres événements.

  • Analyse du piratage des récompenses : évaluation du comportement de l’agent et de l’exploitation possible de la structure des récompenses.

  • Analyse de sensibilité de la récompense : analyse de l’incidence des modifications des paramètres de la fonction de récompense sur le comportement de l’agent.

  • Évaluation de l’équité : utilisation de mesures d’équité appropriées pour quantifier et comparer la performance de l’agent au sein de différents groupes.

  • Test contradictoire de la robustesse : évaluation de la performance de l’agent dans diverses conditions et détermination de sa capacité à maintenir la constance, la précision et la fiabilité.

  • Analyse de la latence et du débit : mesure du temps de réponse de l’agent lorsqu’il fait face à différents scénarios et charges.

  • Tests d’adaptabilité : tests d’adaptabilité horizontale et verticale pour évaluer la capacité de l’agent à gérer une demande accrue.

Lorsque vous réorganiserez vos contrôles de gestion des risques techniques adaptés à l’IA agentive, il sera important de concevoir un cadre de gouvernance holistique qui tiendra compte de ces types de cas d’usage et de qualités de l’IA agentive


Résumé

Nouvelle arrivée parmi les systèmes d’IA, l’IA agentive se distingue radicalement des systèmes d’IA classique et générative. Ces systèmes, dotés d’une capacité d’exécution indépendante leur permettant d’atteindre des objectifs, sont présents sur une courbe spectrale d’agentivité et présentent également tout un éventail de nouveaux risques.

Les organisations doivent mettre en œuvre des contrôles renforcés, adaptables en fonction des objectifs de chaque système d’IA agentive, du contexte du cas d’usage, de l’incidence du niveau de risque et du degré d’agentivité. Il serait important pour les organisations d’approfondir leur compréhension de ce qu’est l’IA agentive et de ce qui la caractérise, et d’examiner dès maintenant son incidence en matière de gouvernance. Ainsi elles seront en mesure d’exploiter son potentiel tout en maintenant une gouvernance solide et un avantage concurrentiel.

Contenu connexe

Faites tout ce qu’il faut en matière d’IA

De l’atténuation des risques à l’atteinte d’un degré suffisant de confiance, adopter l’IA requiert une supervision humaine rigoureuse à chacune des étapes du processus.

La voie à suivre : la gouvernance de l’IA en toute confiance et intégrité

Apprenez‑en davantage sur la manière dont la gouvernance de l’IA responsable aide les conseils d’administration au Canada à renforcer la confiance et à obtenir un avantage concurrentiel. Découvrez les principales stratégies des conseils d’administration.

Comment votre entreprise peut dégager un avantage concurrentiel grâce à l’IA responsable

Voyez comment votre entreprise peut promouvoir l’adoption de l’IA et en dégager un avantage concurrentiel, en comblant son déficit de confiance à l’égard de l’IA. Prenez connaissance des trois mesures clés permettant de faire preuve de leadership en matière d’IA responsable.

    À propos de cet article

    Auteurs