Personnes traversant une place vue d'en haut

Responsible AI Pulse survey

Comment l'IA responsable peut vous donner un avantage concurrentiel ?

Pour obtenir un avantage concurrentiel, les dirigeants doivent intégrer l'IA responsable dans l'ensemble de l'entreprise et s'aligner sur ce qui compte vraiment pour les consommateurs. 


En résumé :

  • De nombreux dirigeants de C-suite surestiment leur degré d'alignement sur les préoccupations des consommateurs en matière d'IA.
  • Une communication claire sur les pratiques responsables en matière d'IA peut favoriser l'adoption de ces pratiques en aidant les consommateurs à se sentir mieux informés et rassurés.
  • Les PDG sont à l'avant-garde de l'IA responsable, mais un alignement plus large de la C-suite est nécessaire.

L'intelligence artificielle (IA) progresse à une vitesse fulgurante. Les entreprises font la course pour identifier les cas d'utilisation, ainsi que pour intégrer et développer l'IA dans leurs produits, services et opérations. Mais la réussite du déploiement ne dépend pas seulement de la rapidité. L'IA responsable est un facteur essentiel d'adoption et de création de valeur à long terme.

La plupart des entreprises ont désormais mis en place des principes d'IA responsable - mais dans quelle mesure les mettent-elles en pratique ? Dans quelle mesure comprennent-ils les préoccupations des consommateurs ? Et dans quelle mesure sont-ils convaincus d'être bien préparés aux nouveaux risques découlant de la prochaine vague de modèles et de technologies d'IA autonome ?

Pour aider à répondre à ces questions, EY a lancé une enquête Responsible AI Pulse - la première d'une série - afin de fournir un aperçu régulier des points de vue réels des chefs d'entreprise sur l'adoption responsable de l'IA.

La première vague de cette enquête révèle un écart important entre les perceptions des chefs d'entreprise et le sentiment des consommateurs. Les résultats révèlent également que de nombreux dirigeants ont perdu confiance dans la solidité de leurs pratiques responsables en matière d'IA et dans leur adéquation avec les préoccupations des consommateurs. Ces lacunes ont des conséquences réelles sur l'adoption et la confiance des utilisateurs, qui ne feront probablement qu'augmenter à mesure que l'IA agentique s'imposera sur le marché. 

Les chefs d'entreprise font figure d'exception, car ils se montrent plus préoccupés par l'IA responsable, un point de vue plus proche de celui des consommateurs. Les autres dirigeants de la suite sont deux fois moins susceptibles d'exprimer des préoccupations similaires, ce qui pourrait s'expliquer par un niveau de sensibilisation plus faible ou une responsabilité moins bien perçue. En écoutant la voix du client, en intégrant l'IA responsable dans le cycle de vie de l'innovation et en plaçant ces efforts au cœur de la marque et des messages, les organisations peuvent commencer à combler le déficit de confiance et donner aux consommateurs une plus grande assurance sur la manière dont l'IA est développée et déployée. Le résultat ? Une confiance accrue et un avantage concurrentiel potentiel.

De nombreux dirigeants ne sont pas conscients du véritable potentiel de l'IA
 

Une part importante des CxO interrogés - 31% - déclarent que leur organisation a mis en place des "solutions d'IA entièrement intégrées et mises à l'échelle" dans l'ensemble de l'organisation. Ce chiffre peut sembler élevé, mais il reflète le rythme d'adoption des grands modèles linguistiques (LLM), qui deviennent rapidement partie intégrante des activités courantes de toutes les entreprises.
 

Il se peut également qu'elle ne comprenne pas parfaitement le véritable potentiel de l'IA. L'intégration et la mise à l'échelle de l'IA dans l'ensemble d'une organisation nécessitent bien plus qu'un déploiement technique de LLM. Cela implique de réimaginer les processus métier, d'identifier les cas d'utilisation à forte valeur ajoutée et d'investir dans les fondations sous-jacentes - de la préparation des données et de la gouvernance à l'ingénierie des solutions d'IA, en passant par la gestion des talents et du changement. Les CxO tournés vers l'avenir en sont conscients et redoublent d'efforts pour mettre en place l'infrastructure et les compétences nécessaires pour rester dans la course.


Mais l'IA est un voyage permanent. Les technologies mises en œuvre atteignent souvent un état stable, même si des capacités plus avancées apparaissent. La phase suivante se dessine déjà : les organisations se préparent à investir de manière significative dans l'IA agentique et d'autres modèles d'IA transformateurs qui vont au-delà de l'automatisation pour soutenir le raisonnement, la prise de décision et l'exécution dynamique des tâches.

"La mise en œuvre de l'IA est différente du déploiement des technologies précédentes", déclare Cathy Cobey, responsable mondiale de l'IA chez EY, Assurance. "Il ne s'agit pas d'un exercice unique, mais d'un parcours, dans lequel votre gouvernance et vos contrôles de l'IA doivent suivre le rythme des investissements dans les fonctionnalités de l'IA. Pour maintenir la confiance dans l'IA, il faudra informer en permanence les consommateurs et les dirigeants, y compris le conseil d'administration, des risques associés aux technologies de l'IA et de la manière dont l'organisation a réagi en mettant en place une gouvernance et des contrôles efficaces."

Les chefs d'entreprise ne sont pas en phase avec les consommateurs en ce qui concerne l'IA responsable 

Près de deux directeurs généraux sur trois (63%) pensent qu'ils sont en phase avec les consommateurs en ce qui concerne leur perception et leur utilisation de l'IA. Pourtant, si l'on compare ces données à celles de l'étude EY AI Sentiment Index - une enquête menée dans 15 pays auprès de 15 060 consommateurs - il apparaît clairement que cette confiance n'a pas lieu d'être.

Pour toute une série de principes d'IA responsable - de l'exactitude et de la confidentialité à l'explicabilité et à la responsabilité - les consommateurs expriment systématiquement une plus grande inquiétude que les chefs d'entreprise. En fait, ils sont deux fois plus nombreux à craindre que les entreprises ne respectent pas ces principes.


Les chefs d'entreprise interrogés sont également moins préoccupés que les consommateurs par une série de dommages sociétaux potentiels liés à l'IA. Il est intéressant de noter que la question sur laquelle les deux groupes sont le plus d'accord est celle des pertes d'emploi - et qu'aucun des deux ne la considère comme une préoccupation majeure. Cela est d'autant plus remarquable que les médias ont accordé beaucoup d'attention à la possibilité de pertes d'emplois liées à l'IA au fil des ans. En revanche, les consommateurs s'inquiètent davantage - bien plus que les directeurs généraux - de questions telles que la désinformation générée par l'IA, l'utilisation de l'IA pour manipuler les individus et l'impact de l'IA sur les segments vulnérables de la société.  

Ce décalage peut également être dû au fait que les organisations ne communiquent pas suffisamment sur la maturité de leur gouvernance en matière d'IA, sur leur approche de la gestion des risques ou sur les mesures de protection qu'elles ont déjà mises en place. Le renforcement de la transparence sur les profils de risque de l'IA et les pratiques d'innovation responsable pourrait contribuer à combler cette lacune - en aidant les consommateurs à se sentir mieux informés et rassurés.

Plus d'IA, plus d'excès de confiance ?

Il est intéressant de noter que les entreprises qui sont encore en train d'intégrer l'IA ("entreprises intégratrices") ont tendance à être plus prudentes dans l'évaluation de leur alignement sur les attitudes des consommateurs. Un peu plus de la moitié (51%) des CxO de ce groupe pensent qu'ils sont bien alignés - contre 71% des CxO d'organisations où l'IA est déjà pleinement intégrée dans l'entreprise.

Mais les entreprises intégratrices s'alignent davantage sur les consommateurs, notamment en ce qui concerne leur niveau de préoccupation à l'égard de l'IA responsable. Les CxO de ce groupe se disent plus préoccupés par des principes clés tels que la protection de la vie privée, la sécurité et la fiabilité - des préoccupations qui reflètent étroitement celles des consommateurs.


Cela pourrait refléter une sensibilité accrue au cours des premières étapes de l'adoption de l'IA, où les structures de gouvernance et l'engagement des parties prenantes sont encore en cours d'élaboration. En revanche, les chefs d'entreprise qui déclarent que le déploiement de l'IA est plus avancé peuvent se sentir plus confiants dans la solidité de leurs contrôles et de leurs protections, et donc exprimer des niveaux d'inquiétude moins élevés.

Une autre raison potentielle de ce décalage pourrait être qu'une part importante des CxO de la cohorte "totalement intégrée" n'a peut-être pas une connaissance suffisante du potentiel de l'IA. Si ces dirigeants sont peu sensibilisés à l'IA, ils risquent d'être trop confiants quant à leur alignement sur les consommateurs et même à la solidité de leur gouvernance en matière d'IA.

Quoi qu'il en soit, l'écart entre les préoccupations des consommateurs et l'alignement perçu reste important - et pourrait affecter la confiance du public dans les services basés sur l'IA. Même si de solides pratiques d'IA responsable sont en place, si les consommateurs ne comprennent pas comment les risques sont gérés, ils peuvent hésiter à s'engager. C'est pourquoi la transparence et la communication sont essentielles.

En effet, l'étude EY AI Sentiment Index Study montre qu'il existe des écarts importants entre l'ouverture des consommateurs à l'IA et leur adoption de la technologie - en particulier dans des secteurs tels que la finance, la santé et les services publics où la confiance est primordiale.

Les nouveaux modèles d'IA posent de plus grands défis en matière de gouvernance

De nombreuses entreprises sont encore aux prises avec la mise en œuvre de principes d'IA responsable pour l'IA générative (GenAI) et les LLM. En moyenne, les organisations n'ont mis en place des contrôles solides que pour trois des neuf principes de l'IA responsable. Plus de la moitié (51%) reconnaissent qu'il est difficile pour leur organisation de développer des cadres de gouvernance pour les technologies d'IA actuelles, et les perspectives pour les technologies d'IA émergentes sont encore plus préoccupantes. La moitié des directeurs généraux déclarent que l'approche de leur organisation en matière de risques technologiques est insuffisante pour faire face aux nouveaux défis associés à la prochaine vague d'IA.

En fait, une grande partie des entreprises qui utilisent ou prévoient d'utiliser ces technologies au cours de l'année prochaine n'ont même pas un niveau de connaissance modéré des risques qu'elles présentent. Les entreprises doivent combler ce déficit de sensibilisation dès maintenant, afin d'encourager la confiance et l'adoption.


Les chefs d'entreprise montrent la voie

Les PDG constituent un point positif dans les données, car ils se distinguent des autres dirigeants par leur sensibilisation aux questions d'IA responsable et leur alignement sur les consommateurs. Parmi les sept fonctions étudiées (CFO, CHRO, CIO, CTO, CMO et CRO), les PDG sont les suivants : 

  • Le plus en phase avec les préoccupations des consommateurs en matière d'IA responsable 
  • Moins susceptibles de surestimer la force de leurs contrôles 
  • Parmi les personnes les plus au fait des technologies émergentes et des risques qu'elles présentent (après les DSI et les CTO) 

Cela reflète probablement leur mandat plus large - tout remonte au PDG - y compris l'IA. Cinquante pour cent des PDG déclarent qu'ils sont les premiers responsables de l'IA, plus que toute autre fonction, à l'exception du directeur technique et du directeur des systèmes d'information. Les PDG sont également plus orientés vers le client que les autres responsables de la suite de l'enquête, à l'exception peut-être des CMO, ce qui les rend plus proches des préoccupations des consommateurs. 

L'IA est une technologie omniprésente, qui a des répercussions sur tous les aspects de l'entreprise et de son modèle économique. Grâce à sa vision équilibrée de l'innovation, des risques et des besoins des parties prenantes, le PDG est bien placé pour défendre l'IA responsable - et pour aider ses pairs de la suite C à faire de même.

Trois actions pour les directeurs généraux : Écouter, agir, communiquer 

Que peuvent faire les CxO pour agir sur la base de ces résultats ? Nous proposons trois actions clés :

  1. Écoutez : Exposez l'ensemble de la suite C à la voix du client

    Les consommateurs sont très préoccupés par l'utilisation responsable de l'IA et par le respect de ces principes par les entreprises. Les dirigeants de la suite C doivent mieux connaître les préoccupations et les préférences de leurs clients. Il est important de noter que cela ne concerne pas seulement les dirigeants ayant un rôle défini face au marché, tels que le PDG ou le CMO, mais aussi ceux qui ont traditionnellement une fonction de back-office, tels que les CTO et les CIO.

    Cela peut se produire de plusieurs manières. Structurer les possibilités de relier les points entre les membres de la suite C, en permettant aux dirigeants qui ne sont pas en contact avec les clients d'apprendre des dirigeants qui sont en contact avec le marché. Mieux encore, placez des responsables tels que les DSI, les CTO et les CRO dans des situations de contact avec la clientèle. Exposez-les au retour d'information des clients et aux enquêtes. Faites-les participer à des groupes de discussion. Dans la mesure du possible, placez-les directement en situation de clientèle - par exemple, en obligeant tous les dirigeants d'entreprises de soins de santé à passer quelques jours par an en contact avec des patients dans un hôpital ou une clinique.

  2. Agir : Intégrer l'IA responsable tout au long du processus de développement

    L'IA responsable doit faire partie de l'ensemble du processus de développement et d'innovation de l'IA, de l'idéation au déploiement. Les concepteurs de technologies utilisent déjà des pratiques telles que la conception centrée sur l'humain et les tests A/B pour optimiser l'expérience de l'utilisateur. Inspirez-vous de ces bonnes pratiques pour faire de la "conception responsable de l'IA centrée sur l'humain" un élément intégral de votre innovation en matière d'IA de bout en bout. Allez au-delà des exigences réglementaires pour développer des approches robustes qui répondent aux principaux risques et aux préoccupations des clients soulevés par vos applications et cas d'utilisation de l'IA.

    Des modèles d'IA plus récents, tels que l'agentic, existent déjà. D'autres suivront, et l'histoire récente suggère qu'ils pourraient arriver plus tôt que prévu. Il est important de comprendre comment ces modèles émergents créeront de nouveaux risques et des défis de gouvernance de l'IA et de commencer à identifier des moyens de les aborder dès maintenant.

    Améliorez continuellement vos compétences et celles de vos équipes - par le biais de formations internes, en assistant à des conférences sectorielles ou en faisant appel à des experts externes - afin de rester à la pointe des risques émergents et accrus au fur et à mesure que ces technologies continuent de progresser.

  3. CommuniquezPrésentez vos pratiques en matière d'IA responsable

    L'IA responsable est plus qu'un exercice de gestion des risques ou de conformité. Les données suggèrent qu'elle peut être un facteur de différenciation concurrentielle. Les consommateurs ont de réelles inquiétudes concernant l'IA, et s'ils ne font pas confiance à vos systèmes, ils ne les utiliseront pas - ce qui, en fin de compte, nuira aux revenus des entreprises si rien n'est fait pour y remédier.

    Mais il s'agit également d'une opportunité de marché. En l'absence d'informations transparentes sur la manière dont les entreprises répondent à leurs préoccupations, les consommateurs perçoivent les entreprises de manière uniforme et indifférenciée. En prenant les devants en matière d'IA responsable et en en faisant un élément central de votre marque et de votre message, vous pouvez vous démarquer aux yeux de vos clients actuels et potentiels - et vous positionner devant la concurrence.

Ce qu'il faut retenir

Pour obtenir un avantage concurrentiel, les directeurs généraux doivent donner la priorité aux préoccupations des clients, intégrer l'IA responsable dans le cycle de développement et communiquer sur la manière dont les risques liés à l'IA sont atténués. Il est essentiel de comprendre les points de vue des consommateurs et d'intégrer l'IA responsable à chaque étape de l'innovation. Cette approche aidera les entreprises à renforcer la confiance dans leurs applications d'IA, en veillant à ce qu'elles correspondent aux attentes des consommateurs et à atténuer les risques associés aux technologies d'IA émergentes. Ce faisant, les organisations peuvent se positionner en tant que leaders de l'IA responsable tout en créant de la valeur à long terme.

Articles associés

    A propos de cet article

    Auteurs

    Contributeurs