Man practicing slackline over the sea in Minorca Balearic Islands Spain
Man practicing slackline over the sea in Minorca Balearic Islands Spain

Sondage éclair sur l’IA responsable

Comment l’IA responsable peut‑elle combler l’écart entre les investissements et les retombées?

Sujets connexes

L’IA est avantageuse lorsqu’elle est intégrée de façon responsable : elle mène à une augmentation des bénéfices et de la satisfaction des employés, et à une réduction des erreurs coûteuses.


En bref

  • Lorsqu’elles en assurent la surveillance en temps réel, les sociétés transforment l’IA – considérée comme un risque – en un moteur de croissance.
  • C’est un fait que les risques liés à l’IA peuvent entraîner d’importantes pertes financières pour les sociétés qui ne se sont pas munies de mesures de contrôle appropriées; cela ne changera pas.
  • Les équipes de direction manquent de compréhension et d’informations, ce qui peut exposer les sociétés à des risques : la surveillance des développeurs citoyens est essentielle.

Les sociétés qui font mieux en matière d’intelligence artificielle (IA) ne créent pas simplement de meilleurs modèles, elles élaborent des garde‑fous plus efficaces qui leur permettent d’accéder à des possibilités de grande envergure sur le marché. Le plus récent sondage éclair mondial d’EY sur l’IA responsable a révélé que les organisations qui adoptent l’IA responsable – au moyen de principes clairs, d’une exécution robuste et d’une gouvernance solide – obtiennent les meilleurs résultats dans les domaines dans lesquels il est plus difficile de réaliser des gains grâce à l’IA : la croissance des revenus, les économies de coûts et la satisfaction des employés. Ces gains ne sont pas marginaux, ils reflètent la différence entre l’utilisation de l’IA en tant que centre de coûts, ou en tant qu’avantage concurrentiel.

Presque toutes les sociétés sondées ont déjà subi des pertes financières en raison d’incidents liés à l’IA, et selon une estimation prudente, les dommages dépassaient en moyenne 4,4 millions de dollars américains. Mais celles qui ont adopté des mesures de gouvernance, comme la surveillance en temps réel et la mise en place de comités de surveillance, font face à beaucoup moins de risques et génèrent des rendements plus élevés. 

L’IA responsable n’est pas qu’un simple exercice de conformité. C’est un levier de performance, et les plus récentes données le prouvent.

L’intégration de l’IA responsable : les sociétés adoptent une approche globale

Le processus d’intégration de l’IA responsable comprend trois phases. La première phase est la communication : l’organisation énonce un ensemble clair de principes internes et externes d’IA responsable. Ensuite vient l’exécution : ces principes énoncés sont convertis en mesures concrètes au moyen de contrôles, d’indicateurs clés de performance et de formations pour le personnel. Vient enfin la gouvernance, soit la surveillance requise pour veiller à ce que les mesures et les principes demeurent en harmonie, grâce à des mesures telles que la mise en place de comités et des audits indépendants.

 

La plupart des sociétés ont amorcé leur processus d’intégration. Lors de la deuxième vague du sondage éclair mondial d’EY sur l’IA responsable, nous avons interrogé les hauts dirigeants à propos des mesures à prendre pour l’adoption de l’IA responsable durant ces trois phases. En moyenne, les sociétés ont mis en place sept des dix mesures.  

 

Le taux d’adoption est encore plus élevé dans certains secteurs comme ceux des technologies, des médias et du divertissement et des télécommunications, où la plus grande dépendance à la technologie et aux données pour la prestation des services de base rend l’IA responsable d’autant plus essentielle. Les organisations appartenant à ces secteurs sont plus susceptibles que les autres de communiquer leurs principes d’IA responsable aux parties prenantes externes (80 % contre 71 %). Elles ont également une longueur d’avance en matière de gouvernance : 74 % d’entre elles ont mis sur pied un comité interne ou externe chargé de surveiller le respect de ces principes (par rapport à 61 % dans d’autres secteurs), et 72 % effectuent des évaluations indépendantes des pratiques de gouvernance et de contrôle de l’IA responsable (par rapport à  61 %).


Le recul constaté à chacune des phases d’intégration de l’IA responsable est minime : seulement quelques points de pourcentage, en moyenne, d’une phase à l’autre. La très grande majorité des sociétés qui n’ont pas encore pris de mesures affirment qu’elles ont l’intention d’agir. Moins de 2 % des répondants affirment que leur organisation ne prévoit mettre en œuvre aucune des mesures de gouvernance de l’IA responsable.

Cette évolution est importante. Le déploiement de l’IA responsable ne peut pas reposer que sur des principes : il requiert une approche globale. La formulation claire de principes, des contrôles rigoureux et une gouvernance solide sont tous des éléments essentiels à la concrétisation de l’IA responsable.  

L’IA responsable est le chaînon manquant

L’IA a déjà permis à de nombreuses organisations de réaliser des gains importants. Au total, huit répondants sur dix signalent une amélioration de l’efficacité et de la productivité, ce qui était le but principal de nombre des premiers cas d’utilisation. Presque autant de répondants affirment que l’IA a eu un effet stimulant sur l’innovation et l’adoption des technologies, ce qui a aidé à intensifier les activités dans lesquelles l’IA générative excelle, comme l’idéation, la découverte, la recherche et le développement et la mise au point rapide de prototypes. Environ les trois quarts des répondants soutiennent qu’elle a accru leur capacité de comprendre leurs clients et de réagir rapidement aux conditions changeantes du marché.


Toutefois, dans trois domaines critiques – la satisfaction des employés, la croissance des revenus et les économies de coûts – l’IA n’a pas amélioré la performance. Selon l’étude d’EY sur les perceptions à l’égard de l’IA, la moitié des citoyens se disent préoccupés par les pertes d’emploi causées par l’IA, et bon nombre d’entre eux demeurent incertains quant au rôle que l’IA devrait jouer dans les processus décisionnels au travail. Pour de nombreuses sociétés, il est toujours difficile de convertir les investissements dans l’IA en améliorations tangibles du résultat net.

Cathy Cobey, leader mondiale, Certification – IA responsable, EY, explique : « Les organisations peinent à dégager un rendement positif du capital investi dans l’IA en raison de la complexité d’intégrer l’IA aux processus existants, ce qui exige de la réingénierie, le perfectionnement des compétences et des investissements continus dans les flux de données. De plus, les défis liés à l’intégration des technologies patrimoniales et la nécessité d’avoir des cadres de gouvernance pouvant évoluer nuisent à la capacité d’obtenir de réels avantages financiers. »

Toutefois, quand nous avons examiné les données de plus près, nous avons fait une découverte remarquable : les sociétés qui ont adopté l’IA responsable progressent là où les autres stagnent. Les organisations qui adoptent des mesures de gouvernance – notamment la surveillance en temps réel et la mise sur pied de comités de surveillance – sont beaucoup plus susceptibles de signaler des améliorations au chapitre de la croissance des revenus, de la satisfaction des employés et des économies de coûts, alors que la plupart des organisations ont de la difficulté à le faire.


un lien qui a tout d’une relation symbiotique. Les sociétés qui ont fait progresser davantage l’intégration de l’IA responsable sont celles qui constatent des améliorations dans les domaines qui en ont le plus besoin, et il est facile de comprendre pourquoi. Les employés anxieux seront rassurés de voir leur employeur prendre un engagement public en matière d’IA responsable. L’adoption d’une approche responsable peut accroître la réputation de la marque, fidéliser les clients et, ultimement, stimuler la croissance des revenus. En outre, une gouvernance solide peut aider à prévenir les défaillances techniques et les manquements à l’éthique coûteux et à réduire les coûts de recrutement et de maintien en poste; ces avantages se répercutent ultimement sur les résultats et augmentent les économies de coûts. 

Pour les dirigeants d’entreprise, le message est clair : le rendement des investissements dans l’IA augmentera à mesure que progresse l’intégration de l’IA responsable. 

Le prix à payer quand on fait fi des risques

Bien que l’adoption de l’IA responsable génère des avantages, l’inverse est aussi vrai : la négliger peut s’avérer très coûteux. Dans le cadre de notre sondage, presque tous les répondants (99 %) ont déclaré que leur société a subi des pertes financières en raison de risques liés à l’IA, et, selon 64 % d’entre eux, qu’elle a subi des pertes supérieures à 1 million de dollars américains. Selon une estimation prudente, les sociétés qui ont été exposées à des risques ont subi en moyenne des pertes financières de 4,4 millions de dollars américains1. Cela représente, à l’échelle des 975 répondants de notre échantillon, une perte estimée à 4,3 milliards de dollars américains.

Les organisations rapportent que les risques les plus courants qui entraînent pour elles des conséquences défavorables sont la non-conformité à la réglementation en matière d’IA (57 %), l’incidence défavorable sur les objectifs de développement durable (55 %) et les résultats biaisés (53 %). Les enjeux d’explicabilité, de responsabilité juridique et d’atteinte à la réputation ont jusqu’ici pris moins d’importance, mais cela devrait changer à mesure que l’IA est déployée plus visiblement et à grande échelle.

Il est toutefois encourageant de constater que l’IA responsable est déjà liée à une diminution des retombées défavorables. Par exemple, les organisations qui ont déjà défini un ensemble clair de principes d’IA responsable ont été exposées à 30 % moins de risques que celles qui ne l’ont pas fait. 

Les équipes de direction manquent de compréhension et d’informations, ce qui peut exposer les sociétés à des risques

Il est clair qu’un grand nombre de hauts dirigeants ne savent pas comment appliquer les mesures de contrôle appropriées pour atténuer les risques liés à l’IA, malgré les incidences financières de ces risques. Lorsqu’il leur a été demandé d’associer les bonnes mesures de contrôle aux cinq risques liés à l’IA, seuls 12 % des répondants ont eu un score parfait. 

Comme on pouvait s’y attendre, les chefs de l’information et les chefs de la technologie ont obtenu les meilleurs résultats. Malgré tout, seulement un quart environ ont répondu correctement à l’égard des cinq cas d’utilisation. 

Les chefs de l’IA et les chefs du numérique ont obtenu des résultats légèrement supérieurs à la moyenne (15 %), ce qui reflète probablement leur parcours plus proche de la science des données, du milieu universitaire ou de l’élaboration de modèles que de la gestion traditionnelle des risques technologiques. Il est donc possible qu’ils aient moins d’expérience de la gestion des risques technologiques que les chefs de l’information et les chefs de la technologie. 

Fait préoccupant, les chefs de la gestion du risque, qui sont ultimement responsables des risques liés à l’IA, ont obtenu des résultats légèrement inférieurs à la moyenne (11 %). Finalement, au bas de l’échelle, les chefs du marketing, les chefs de l’exploitation et les chefs de la direction ont obtenu les résultats les plus faibles (respectivement 3 %, 6 % et 6 %). 


Ce manque de connaissance a des conséquences. Les sociétés qui ont perdu plus de 10 millions de dollars américains en raison des risques liés à l’IA affirment avoir mis en place, en moyenne, 4,5 des 10 mesures de contrôle appropriées, tandis que les sociétés ayant perdu 1 million de dollars américains ou moins en avaient mis en place 6,4. Cela montre clairement que les hauts dirigeants ont besoin de perfectionnement ciblé, surtout à mesure que les coûts des risques liés à l’IA, sur les plans économique et de la réputation, continuent d’augmenter.

Défis à venir : l’IA agentive et les développeurs citoyens

Les défis en matière en gouvernance ne touchent pas que les modèles actuels. À mesure que l’IA agentive gagne en popularité au travail et que les employés s’essaient au développement citoyen, les risques – et la nécessité d’avoir des mesures de contrôle réfléchies – ne font que grandir.

La nature autonome de l’IA agentive entraîne de nouveaux risques pouvant prendre de l’ampleur rapidement.

Fait encourageant, la plupart des organisations mettent déjà en œuvre des politiques de gouvernance pour gérer ces risques. Plus de 75 % des répondants ont mis en œuvre huit des dix mesures de gouvernance de l’IA agentive que nous avons identifiées. Il s’agit notamment de la surveillance continue (85 %) et des processus de signalement aux échelons supérieurs des incidents liés aux comportements agentifs inattendus (80 %). Bien que les organisations aient fait un bon premier pas, il reste encore des défis à relever pour concevoir des contrôles efficaces capables d’assurer une surveillance adéquate des systèmes qui fonctionnent en continu, d’être adaptés rapidement et nécessitant une intervention humaine minimale. 


« À l’ère de l’IA agentive, où les systèmes sont de plus en plus autonomes et complexes, les organisations doivent prioriser la surveillance en temps réel : une surveillance continue et des capacités d’intervention rapide sont essentielles pour composer avec les complexités de ces technologies. La nature autonome de l’IA agentive entraîne de nouveaux risques pouvant prendre de l’ampleur rapidement, et il est donc nécessaire de mettre en place des mesures de contrôle rigoureuses pour prévenir les interruptions coûteuses et assurer l’intégrité des systèmes », souligne Sinclair Schuller, leader, IA responsable, EY Amériques.

En particulier, nous ne sommes pas préparés à composer avec une main‑d’œuvre hybride IA‑humain. Seulement un tiers (32 %) des répondants affirment que leur équipe des RH élabore des stratégies pour gérer ce genre d’environnement. Malgré tout, comme l’IA agentive n’est encore qu’au stade des balbutiements, ce chiffre peut être considéré comme prometteur, puisqu’il indique que les sociétés commencent à réfléchir stratégiquement aux répercussions à plus long terme de la technologie.

Développeurs citoyens – possibilité ou angle mort?

L’avènement des « développeurs citoyens », c’est‑à‑dire les employés qui utilisent des outils reposant sur un code faible ou nul pour créer leurs propres agents d’IA, pose un défi plus complexe.

Un tiers (32 %) des sociétés ont choisi d’interdire carrément cette pratique. Parmi les autres, la tolérance varie entre des cas d’utilisation strictement limités et l’encouragement actif; certaines sociétés faisant même la promotion des meilleures pratiques auprès de leurs équipes.


Les dirigeants devraient surtout être préoccupés par l’écart entre les politiques énoncées et la surveillance du monde réel. Parmi les organisations qui autorisent le développement citoyen, seulement 60 % se sont dotées de cadres officiels pour assurer l’harmonisation avec les principes d’IA responsable, et seulement la moitié ont une plus grande visibilité de l’activité réelle.  Parmi les sociétés qui l’interdisent, 12 % admettent qu’elles manquent de visibilité de l’activité réelle, d’où des lacunes sur le plan de la gouvernance qui empêchent de détecter le développement en parallèle de l’IA. En résumé, les sociétés avancent à l’aveuglette.

L’émergence de l’IA agentive et des développeurs citoyens souligne un thème central dans nos constatations : l’IA responsable doit évoluer en phase avec la technologie et les comportements en milieu de travail. Des cadres clairs, une surveillance proactive et la sensibilisation des dirigeants sont des éléments essentiels pour les organisations qui veulent tirer parti de ces tendances sans accroître leurs risques.

Les incidences pour les dirigeants d’entreprise 

Voici trois mesures que les hauts dirigeants peuvent prendre pour renforcer les mesures de gouvernance et de contrôle en matière d’IA et améliorer les résultats :

1. Adopter une approche globale en matière d’IA responsable

La relation symbiotique entre l’adoption de l’IA responsable et l’amélioration de la performance grâce à l’IA envoie un message clair aux dirigeants d’entreprise. Pour tirer une plus grande valeur des investissements dans l’IA, particulièrement dans des domaines cruciaux comme la performance financière et la satisfaction des employés, il est essentiel que les sociétés continuent de progresser dans leur démarche d’IA responsable. Une approche exhaustive consiste à énoncer et à communiquer les principes d’IA responsable, à les mettre en œuvre au moyen de mesures de contrôle, d’ICP et de formations, et à établir une gouvernance efficace. 

2. Combler les lacunes au chapitre des connaissances des hauts dirigeants 

L’IA touche toutes les facettes des organisations. Il est primordial que les hauts dirigeants comprennent à la fois le potentiel de l’IA, ses risques et les mesures de contrôle nécessaires pour les atténuer. Pourtant, notre sondage révèle un manque flagrant dans la compréhension des contrôles qui sont les plus appropriés.

Comment vos hauts dirigeants se comparent‑ils avec les autres? Il faut identifier les lacunes les plus importantes et les corriger au moyen de formations ciblées. Au minimum, les titulaires des rôles les plus près des risques liés à l’IA doivent bien connaître les mesures de sauvegarde appropriées.

3. Être prêt à faire face aux risques émergents liés à l’IA agentive et aux développeurs citoyens

L’IA agentive a le potentiel d’offrir des capacités nouvelles et puissantes, mais elle comporte également des risques importants. Il est essentiel pour les organisations d’identifier ces risques, d’adopter des politiques appropriées et de s’assurer que des mesures de gouvernance et de surveillance appropriées sont en place. 

Il existe des écarts entre les politiques énoncées par les sociétés et leur capacité de savoir si leurs employés développent leurs propres agents d’IA. Avant de prendre position, il faut comprendre quels sont les coûts et les avantages pour l’organisation. Peu importe que vous interdisiez, autorisiez ou encouragiez cette pratique, assurez-vous que votre politique est fondée sur une véritable connaissance de ce que font vos employés. 

Résumé

À mesure que l’IA est ancrée plus profondément dans les activités commerciales, un choix s’impose clairement aux dirigeants : considérer l’IA responsable comme une autre formalité à remplir, ou s’en servir comme un outil stratégique. Ceux qui optent pour cette dernière approche démontrent d’ores et déjà qu’une gouvernance solide, des principes clairs et un leadership éclairé permettent de transformer d’éventuels risques en un avantage concurrentiel. La prochaine vague d’innovations – des modèles d’IA agentive au développement citoyen – ne peut que faire monter les enjeux. Ce sont les organisations qui agissent dès maintenant pour renforcer le lien entre responsabilité et performance qui récolteront les fruits,

Contenu connexe

La voie à suivre : la gouvernance de l’IA en toute confiance et intégrité

Apprenez‑en davantage sur la manière dont la gouvernance de l’IA responsable aide les conseils d’administration au Canada à renforcer la confiance et à obtenir un avantage concurrentiel. Découvrez les principales stratégies des conseils d’administration.

Comment votre entreprise peut dégager un avantage concurrentiel grâce à l’IA responsable

Voyez comment votre entreprise peut promouvoir l’adoption de l’IA et en dégager un avantage concurrentiel, en comblant son déficit de confiance à l’égard de l’IA. Prenez connaissance des trois mesures clés permettant de faire preuve de leadership en matière d’IA responsable.

    À propos de cet article