The better the question. The better the answer. The better the world works. У вас есть вопрос? У нас есть ответ. Решая сложные задачи бизнеса, мы улучшаем мир. У вас є запитання? У нас є відповідь. Вирішуючи складні завдання бізнесу, ми змінюємо світ на краще. Meilleure la question, meilleure la réponse. Pour un monde meilleur. 問題越好。答案越好。商業世界越美好。 问题越好。答案越好。商业世界越美好。

Impulse: the latest news and inspirational stories from and for entrepreneurs

>> Digital >> Impulse

Quand et comment la société fera-t-elle confiance à l'IA ?

Digital

EY - Quand et comment la société fera-t-elle confiance à l'IA ?

Le potentiel de l'intelligence artificielle (IA) est découvert et déployé à un rythme effréné. Mais l'homme fait-il vraiment confiance aux machines ?

« Pas encore suffisamment pour faire de l'IA un succès », affirment le Dr Frank De Jonghe, associé EMEIA Quantitative Advisory Services, et le Dr Patrice Latinne, associé EY en Data & Analytics. Tous deux en sont persuadés, la clé, pour y parvenir, c’est « une IA digne de confiance et éthique ».

Contact

EY - Dr. Frank De Jonghe

Dr. Frank De Jonghe
associé EMEIA Financial Services: Quantitative Advisory Services
+32 2 774 9956
LinkedIn logo

EY - Dr. Patrice Latinne

Dr. Patrice Latinne
associé EMEIA Financial Services: Data & Analytics
+32 2 749 1238
LinkedIn logo

Imiter le cerveau humain

L'IA peut être utilisée de deux façons, explique Frank De Jonghe : « D’une part, pour prendre des décisions en toute autonomie, comme pour les voitures autonomes, par exemple, mais aussi pour donner aux humains une capacité de réflexion supplémentaire. Par exemple, l’IA ne décidera pas seule quel patient est prioritaire dans un service d'urgence. Elle proposera plutôt un système de recommandation pour faciliter la décision. »

Patrice Latinne poursuit : « L'IA automatise les décisions en imitant la pensée humaine par des algorithmes complexes. Cela entraîne non seulement une évolution technologique, mais aussi un bouleversement social majeur. Il est logique que l’humain soit méfiant. Pour que l'IA soit un succès, nous devons faire en sorte que l’humain comprenne les décisions de l'ordinateur, ce qui est une condition préalable pour qu’il lui fasse confiance. »

Alors, un système d'IA est-il suffisamment robuste pour prendre les bonnes décisions dans toutes les situations ? « Pour répondre à cette question, il faut comprendre comment fonctionne l'algorithme – surtout lorsqu'il ne fonctionne pas et doit être désactivé » explique Frank De Jonghe. « Le résultat de l'apprentissage machine est dans une large mesure déterminé par l'input d'expériences historiques.

Si le système rencontre des éléments qu'il ne connaît pas ou interagit avec d'autres algorithmes, il risque de paniquer. C’est ainsi qu’on a par exemple des krachs éclair dans le cadre du trading algorithmique, ou des accidents de la circulation avec les voitures autonomes. Créer la performance opérationnelle et la transparence - présenter la boîte noire, pour ainsi dire - est une tâche cruciale pour les techniciens afin d'arriver à une IA de confiance. »

La confiance en l'intelligence artificielle s’articule en deux niveaux : peut-on faire confiance aux décisions de l'intelligence artificielle, et celles-ci sont-elles éthiques ?
Frank De Jonghe

L'éthique de l'IA est une question sociale

Ce qui pose également question, c’est le côté éthique – ou non -  des décisions des algorithmes de l’IA. Un aspect qui nous concerne tous, et qu’illustre Frank De Jonghe. « Lorsqu’un automobiliste doit éviter simultanément un enfant et une personne âgée, il réagit intuitivement.

Avec l'intelligence artificielle, nous devons soudain réellement réfléchir à la question éthique de savoir s'il y a lieu d'intégrer une priorité, et laquelle. Autre exemple : le VDAB propose des emplois aux demandeurs d'emploi sur la base d'algorithmes. Si ceux-ci refusent souvent, cela peut avoir un impact sur les prestations.

Mais ne devons-nous pas tenir compte de la pertinence de la recommandation ? Quid si l'algorithme fait des recommandations qui dirigent systématiquement certains groupes de la population vers certains emplois sur la base de stéréotypes historiques inscrits dans le code ? »

Pour Patrice Latinne, ce n'est pas seulement au spécialiste des données de déterminer si le système d'intelligence artificielle est éthiquement responsable ou non. « Tout d'abord, la responsabilité de chaque organisation est et reste de se poser la question suivante : ‘Utilisons-nous l'IA à bon escient ?’ La réponse doit d’abord être apportée par les responsables, puis systématiquement communiquée à l'ensemble de la chaîne de développement » affirme-t-il.

« Depuis la conception initiale du système d'IA jusqu'au moment de son activation en production et même durant son fonctionnement, il est important de savoir par exemple quelles données sont utilisées, comment fonctionne le modèle d'IA et comment il se mettra lui-même automatiquement à jour, sur quel groupe de clients il a un impact et s'il pose un problème éthique vis-à-vis des consommateurs et des collaborateurs. Chez EY, nous sommes convaincus qu'il est important de conseiller nos clients sur ce type de question de confiance et d'éthique dans le cadre du développement technique d’applications IA. »

Avec ou sans IA, les entreprises sont de toute façon exposées au risque d'atteinte à leur réputation. Que ce soit une personne ou un algorithme qui accorde des crédits avec un préjugé raciste, l'organisation demeure responsable. Dans tous les cas, les entreprises doivent être vigilantes concernant les questions éthiques.

Ce qui est nécessaire, mais justement difficile, comme le démontre Frank De Jonghe : « Une trentaine d'équipes universitaires ont déjà été invitées à analyser s'il n'y avait pas de préjugé racial pour l'attribution des cartons rouges dans le football. Curieusement, les équipes ont obtenu des résultats diamétralement opposés. Cela montre bien qu'il est très difficile de trancher sur ce genre de questions. Mais en tant qu'entreprise, vous devez au moins être en mesure de démontrer que vous identifiez et surveillez les points sensibles potentiels ».

Sommes-nous prêts pour l’lA ?

Les possibilités de l'IA explosent et offrent d’importants avantages. Mais aujourd'hui, ce sont surtout les géants de la technologie qui y recourent.

Lors du déploiement de l'intelligence artificielle, toutes sortes d’éléments doivent être pris en compte afin que les pièces du puzzle s'emboîtent. À quoi l'IA offre-t-elle une solution ? Quel est le coût ? L'entreprise dispose-t-elle en interne des compétences, des technologies et de l'infrastructure adéquates ?

Mais surtout : l'intelligence artificielle est-elle ‘business and ethically critical’ ? Une question que s’est posée Patrice Latinne. « Lorsqu'une banque recommande à un client un certain produit financier sur la base d'un algorithme, c'est un peu plus complexe que lorsqu'Amazon propose un certain livre à un client. Et d'un point de vue éthique, une erreur avec l'argent du client est aussi plus délicate qu'une erreur concernant ses préférences littéraires. L'expérience et la satisfaction des clients sont plus susceptibles d'être compromises dans ce genre de questions bancaires et d'assurance. »

Frank De Jonghe ajoute : « Il est important que les entreprises se focalisent sur ce qu'elles veulent faire et ce qu'elles visent avec l'IA. Lors d'un récent entretien commercial avec mon fournisseur d'électricité, j'avais déclaré que je n'aimais pas les compteurs intelligents. Lorsqu’il m’a demandé pourquoi, j'ai répondu que je ne voulais pas donner un aperçu complet de mes présences et absences afin que mon fournisseur puisse faire des prévisions de charge. Le vendeur ne savait même pas que c'était l'intention de son entreprise… S'il n'y a pas de transparence sur la finalité et la valeur ajoutée de l'IA, il sera difficile de la faire accepter par le grand public. »

L’Al n'est pas un concours consistant à développer l'algorithme le plus pointu. Ce qu’on fait avec cet algorithme est beaucoup plus important.
Patrice Latinne

Ruée vers l'or avec un mauvais résultat ?

Il est clair que le potentiel de l'intelligence artificielle est énorme et que de très nombreuses expériences de développement informatique sont en cours. Selon Frank De Jonghe, le défi, maintenant, c’est de savoir comment traduire cela en une application industrielle performante tout en gardant le contrôle. « Le compromis est souvent difficile et, malgré les avantages évidents en termes de charge de travail et d'économies, le pas vers la confiance est souvent très grand.

EY offre une valeur ajoutée dans ce domaine. Nous disposons non seulement de techniciens qui renforcent la confiance, mais nous parlons aussi le langage de la gouvernance et du management. L'IA n'est qu'un instrument et ne change rien aux responsabilités du management. Ils doivent continuer à mettre les freins et des contrepoids en place. EY aide les entreprises à comprendre ce qu'elles font plutôt que de se contenter de faire un saut dans l’inconnu – avec le risque d'accidents qui va de pair. Nous les sensibilisons également à un certain nombre d'aspects éthiques et les aidons à les surveiller. »

Selon Frank De Jonghe et Patrice Latinne, il est également nécessaire d'élargir le débat sur l'IA. La Finlande, par exemple, offre à ses citoyens des formations sur l'IA afin de leur permettre de se faire un avis éclairé.

Des initiatives existent également en Belgique, comme nous l’explique Patrice Latinne : « Des plates-formes comme AI4Belgium et Data Science Meetups réfléchissent concernant les possibilités et les limites de l'IA, la sensibilisation et la formation. Les entreprises devront de toute façon être en mesure d'expliquer ce que font les systèmes d'IA, pourquoi elles prennent quelles décisions, et quels avantages obtiennent les consommateurs en échange de la divulgation de leurs données. »