La voie à suivre : la gouvernance de l’IA en toute confiance et intégrité

La voie à suivre : la gouvernance de l’IA en toute confiance et intégrité

Auteurs :

Yvonne Zhu,  associée, Certification – Risques technologiques, EY Canada
Karelyn Murray, chef d’équipe senior, EY Canada
Abhishek Chowdhury,  chef d’équipe senior, EY Canada

Les conseils d’administration au Canada peuvent favoriser la confiance et l’innovation en accordant la priorité à la gouvernance de l’IA et en l’alignant sur les objectifs stratégiques.


En bref

  • La gouvernance de l’IA responsable permet aux conseils d’administration au Canada de gérer les risques et d’en retirer un avantage concurrentiel favorisant l’innovation.
  • Les conseils d’administration doivent utiliser l’IA conformément à la stratégie, renforcer la confiance et faire la promotion d’une culture d’adoption éthique et transparente de l’IA.
  • La priorisation de l’IA responsable favorise la croissance durable et prépare les organisations à composer avec les cadres réglementaires en évolution.

Les conseils d’administration au Canada qui considèrent l’IA à la fois comme un actif stratégique et un risque systémique peuvent habiliter les organisations à renforcer la confiance, à améliorer la transparence et à obtenir un avantage concurrentiel.

 

Les conseils d’administration peuvent aider les organisations à mettre en œuvre une IA responsable et à tirer ainsi parti d’une multitude de possibilités

Selon l’étude servant à l’établissement de l’indice de perception de l’IA d’EY, 82 % des gens utilisent l’IA pour améliorer leur façon de vivre et de travailler. Certaines des applications d’IA les plus prometteuses sont déployées dans des secteurs d’activité où les entreprises développent activement des solutions

 

L’IA offre tout un éventail de possibilités, que ce soit pour le bien‑être financier ou les diagnostics dans le domaine des soins de santé, en passant par l’amélioration de l’accès au soutien à la clientèle. 

 

Toutefois, seuls 57 % des répondants au sondage affirment être à l’aise avec l’IA. L’inconfort des répondants restants s’explique en grande partie par leur manque de confiance. Pourquoi?

 

La confiance est fondamentale pour les humains, en ce qu’elle influe sur leurs décisions, leur comportement et les gestes qu’ils posent. Il est possible de renforcer la confiance dans les systèmes d’IA et de tirer parti du réel potentiel de l’IA en les exploitant selon certains principes, comme la transparence, l’équité, la responsabilité et la fiabilité. Essentiellement, l’IA, pour être responsable, doit être conçue, développée et déployée au moyen de systèmes intelligents, mais également de façon à susciter la confiance des humains et conformément aux valeurs de ces derniers et aux normes sociétales. 

 

Faute de quoi, des lacunes significatives pourraient faire leur apparition et avoir une incidence défavorable sur l’adoption de l’IA, la confiance, l’engagement et la valeur transformationnelle de cette technologie pour les entreprises canadiennes. 

 

En apaisant les préoccupations à l’égard de la désinformation, des partis pris et de la protection des renseignements personnels, les organisations peuvent faire bien plus que simplement atténuer les risques, et utiliser l’IA comme un catalyseur de l’ingéniosité, de l’imagination, du progrès et, bien sûr, de la création d’une valeur durable. Ce faisant, elles font figure de leaders et améliorent la culture en milieu de travail qui, selon le sondage sur le travail réinventé 2024 d’EY, compte pour 40 % de la note de satisfaction envers une organisation

Notamment, l’automatisation des tâches manuelles au moyen de l’IA peut permettre aux gens de se libérer et de se concentrer sur un travail plus intéressant et à valeur ajoutée. La culture s’en trouve renforcée et les gens disposent de nouvelles façons d’apprendre, de pérenniser leur carrière et de stimuler la croissance de l’entreprise de façon novatrice. 

En plus de se priver de ces possibilités, les organisations qui optent pour l’inaction s’exposent à d’énormes risques, à un effritement de la confiance des parties prenantes et à des répercussions coûteuses. Qui plus est, la situation pourrait s’aggraver si les conseils sont tentés de rester dans l’expectative de ce que leur réserve la réglementation. 

Bien que le Canada ait été un des premiers pays à adopter une réglementation sur l’IA, y compris la Loi sur l’intelligence artificielle et les données adoptée en 2022, l’élan des autorités de réglementation du pays s’est essoufflé tandis que les acteurs internationaux ont pris les devants. Pendant ce temps, l’IA continue de façonner le changement et de converger avec d’autres technologies émergentes, comme l’informatique quantique, la chaîne de blocs et l’Internet des objets. En raison de cette évolution, les conseils d’administration doivent se concentrer sur de nouvelles priorités liées à l’IA qui vont bien au‑delà de la conformité aux exigences de réglementation. Sans gouvernance de l’IA, la valeur s’érode et tout un éventail de risques émergent, notamment les risques liés à la réputation, à la cybersécurité et à la protection des renseignements personnels ainsi que les risques opérationnels, juridiques et éthiques. 

Les conseils, en leur qualité de gérants de l’entreprise, mais également de responsables de l’identification des possibilités et de la surveillance de leur mise en œuvre, peuvent jouer un rôle essentiel de renforcement de la confiance et agir à titre de fiduciaires pour prévenir l’inaction et créer un avantage concurrentiel dans une économie axée sur l’IA.

Vision, vigilance et sens des responsabilités, trois attributs essentiels pour les conseils d’administration

Pour pallier le manque de confiance et libérer la valeur transformationnelle de l’IA responsable, les organisations doivent faire preuve de vision, de vigilance et d’un sens des responsabilités et faire de l’IA responsable une priorité plutôt qu’un élément à cocher sur une liste de contrôle de la conformité. 

Pour tirer le maximum des possibilités offertes par l’IA, il est essentiel que son utilisation soit alignée sur la stratégie organisationnelle et les attentes des utilisateurs. En adoptant une approche efficace en matière d’IA responsable, les entreprises sont en mesure de déployer cette technologie évolutive à grande échelle et d’accroître le rendement du capital investi (RCI) à l’appui de leurs résultats d’affaires et de la création de valeur.

Quatre pratiques de pointe pour amorcer des conversations approfondies sur l’IA et prioriser l’IA responsable au niveau du conseil

Les conseils d’administration doivent planifier en tenant compte de l’évolution continue de la technologie et aider l’entreprise à se recentrer sur les priorités stratégiques appropriées tout en gardant le RCI et l’évolutivité à l’esprit. Le temps est venu pour les conseils de poser aux membres de la haute direction de l’entreprise des questions pertinentes sur l’IA et de soumettre à un examen critique les mesures prises pour renforcer la confiance dans l’IA, tant en interne qu’en externe, et les prochaines mesures à prendre.

En gardant ces quatre pratiques de pointe à l’esprit, les conseils pourront mettre l’IA responsable à l’ordre du jour et réaliser des progrès dès maintenant :

1. Faire de l’IA un impératif à l’échelle de l’organisation, des fonctions et du conseil 

Il est essentiel que l’IA soit en permanence au rang des priorités du conseil et ne soit pas considérée que comme un casse‑tête isolé, ponctuel et d’arrière‑guichet. Il s’agit plutôt d’un inducteur de valeur stratégique qui doit être déployé, utilisé et surveillé dans le cadre d’un plan réfléchi d’atténuation des risques et de génération de valeur. 

Ce plan comprend la mise en place d’un cadre de gouvernance qui permet d’intégrer les considérations liées à l’IA aux processus décisionnels au niveau du conseil. La conversation doit être axée sur la manière de créer des équipes interfonctionnelles qui peuvent évaluer l’incidence de l’IA sur divers secteurs d’activité, pour que les investissements dans l’IA appuient les objectifs à long terme de l’organisation et ses stratégies de gestion des risques et génèrent une valeur durable. 

2. Comprendre l’état actuel et futur de l’adoption de l’IA

Les conseils doivent acquérir une compréhension claire de l’état actuel du déploiement de l’IA et de l’état futur souhaité. Ils doivent également soumettre avec confiance l’utilisation potentielle intégrée ou en parallèle de l’IA à des simulations de crise. Dans le cadre de ce processus, les conseils peuvent contribuer à la définition de l’appétit pour le risque de l’organisation, à la détermination de la rigueur avec laquelle la gouvernance de l’IA doit être appliquée et à l’élaboration d’une feuille de route pour l’IA responsable. 

Grâce au modèle EY.ai Maturity,  les organisations peuvent visualiser les sept dimensions de la maturité de leur environnement actuel d’IA et recommander des mesures à prendre pour le faire passer au prochain niveau. En réalisant une évaluation de la maturité de l’environnement de gouvernance de l’IA et de l’état de préparation des données pour l’IA, les organisations peuvent repérer les lacunes, échelonner et optimiser le parcours en matière de gouvernance de l’IA conformément au niveau de l’adoption de l’IA de l’organisation. Forts de ces informations, les conseils peuvent réaliser une analyse comparative par rapport aux normes et aux cadres et également déterminer si l’approche de gouvernance de l’IA déjà adoptée est pertinente. 

3. Promouvoir une culture d’IA responsable

Il est tout aussi important que la direction donne le ton et que la base soit sensibilisée. Au niveau du conseil, les administrateurs doivent être au courant des tendances émergentes et maîtriser l’IA. Les conseils jouent un rôle essentiel de leadership et de surveillance, remettant en question la manière dont la rigueur en matière de surveillance est perçue à l’ère numérique. Des exercices de simulation réguliers peuvent permettre au conseil et à la haute direction de se préparer en vue d’incidents liés à l’IA et d’interventions en cas de crise. Il faudra ensuite offrir aux employés de l’organisation des possibilités de perfectionnement pour renforcer leur connaissance de l’IA et les sensibiliser davantage aux risques. Pour ce faire, il faudra mettre en place des programmes de formation générale couvrant les fondements et les applications de l’IA et les risques qui y sont liés pour permettre aux employés d’utiliser avec confiance les technologies d’IA et de composer avec les complexités connexes de façon responsable et efficace.

4. Explorer d’autres applications, comme l’IA agentique, dans le cadre d’un programme d’amélioration et d’innovation continues

D’autres applications de l’IA ont la cote et commencent à faire leur apparition dans les outils d’informatique libre. L’interaction réelle entre les humains et la technologie devient de plus en plus évidente à mesure que le niveau d’autonomie de l’IA augmente. Les technologies d’IA continuant de créer de nouvelles possibilités et des risques additionnels, la réglementation existante fera l’objet de modifications, et de nouveaux règlements feront leur apparition. Cet environnement dynamique signifie que votre approche d’IA responsable et votre stratégie technologique plus large devront être souples et adaptables pour demeurer en phase avec cette évolution rapide et la stratégie d’entreprise. 

En intégrant les analyses comparatives à vos plans, vous serez en mesure de repérer les points faibles. Qui plus est, l’instauration d’un dialogue continu sur l’IA responsable permettra d’en faire une priorité alors que l’organisation met en œuvre son programme de transformation. 

Résumé

Les conseils doivent participer activement à la surveillance des initiatives d’IA responsable afin de contribuer à la pleine réalisation de sa valeur au sein de l’organisation. Ils doivent donc faire la promotion d’une culture reposant sur des pratiques responsables et éthiques d’adoption et d’utilisation de l’IA, et aligner la stratégie en matière d’IA sur les objectifs organisationnels tout en maintenant une communication transparente avec les parties prenantes. Ce faisant, les conseils, en plus de gérer les risques, tirent parti de l’IA à titre de moteur important d’innovation et d’inducteur d’avantages concurrentiels, favorisant ultimement la croissance durable dans une économie de plus en plus axée sur l’IA. 

Vous voulez en savoir plus sur l’IA responsable?

Articles connexes

Comment votre entreprise peut dégager un avantage concurrentiel grâce à l’IA responsable

Voyez comment votre entreprise peut promouvoir l’adoption de l’IA et en dégager un avantage concurrentiel, en comblant son déficit de confiance à l’égard de l’IA. Prenez connaissance des trois mesures clés permettant de faire preuve de leadership en matière d’IA responsable.

Pourquoi la gestion des cyberrisques joue‑t‑elle un rôle important dans le renforcement de la résilience financière?

En intégrant la gestion des cyberrisques à la planification financière, les chefs des finances peuvent favoriser le renforcement de la cyberrésilience de leur entreprise. Pour en savoir plus.

Informations à fournir en lien avec la surveillance de la cybersécurité : le point de vue des sociétés sondées en 2024

Découvrez l’évolution des informations à fournir en lien avec la cybersécurité depuis 2018 et les gestes posés par les conseils pour améliorer la surveillance des risques liés à la cybersécurité.

    À propos de cet article