EY désigne l’organisation mondiale des sociétés membres d’Ernst & Young Global Limited, et peut désigner une ou plusieurs de ces sociétés membres, lesquelles sont toutes des entités juridiques distinctes. Ernst & Young Global Limited, société à responsabilité limitée par garanties du Royaume‑Uni, ne fournit aucun service aux clients.
Comment EY peut vous aider
-
Notre approche pour l’adoption de l’IA et de l’automatisation intelligente est centrée sur l’être humain, pragmatique, axée sur les résultats et éthique.
Pour en savoir plus.
Cinq tendances réglementaires en matière d’intelligence artificielle
Tout en reconnaissant que chaque territoire a adopté une approche réglementaire différente, en fonction de normes culturelles et de contextes législatifs différents, il existe cinq domaines de cohésion qui se rejoignent dans le principe général consistant à atténuer les inconvénients éventuels de l’IA tout en permettant son utilisation dans l’intérêt économique et social des citoyens. Ces domaines de convergence constituent des fondements solides à partir desquels des réglementations détaillées peuvent être élaborées.
- Principes fondamentaux : La réglementation et les orientations en matière d’IA en cours d’examen sont conformes aux principes fondamentaux de l’IA définis par l’OCDE et approuvés par le G207. Ces principes comprennent le respect des droits de l’homme, la viabilité, la transparence et une gestion rigoureuse des risques.
- Approche fondée sur les risques : Ces territoires adoptent une approche de la réglementation de l’IA fondée sur les risques. Cela signifie qu’ils adaptent leur réglementation en matière d’IA aux risques perçus liés à l’IA en fonction de valeurs fondamentales comme la protection des renseignements personnels, la non‑discrimination, la transparence et la sécurité. Cette « personnalisation » suit le principe selon lequel les obligations de conformité doivent être proportionnelles au niveau de risque (un risque faible signifie qu’il n’y a pas ou très peu d’obligations; un risque élevé signifie des obligations importantes et strictes).
- Approche non sectorielle et approche sectorielle : en raison de la diversité des cas d’utilisation de l’IA, certains pays mettent l’accent sur la nécessité d’adopter des règles sectorielles, en plus d’une réglementation non sectorielle.
- Harmonisation des politiques : Les administrations adoptent des règles liées à l’IA dans le contexte d’autres priorités stratégiques numériques, comme la cybersécurité, la protection des données et de la propriété intellectuelle, l’UE adoptant l’approche la plus exhaustive.
- Collaboration avec le secteur privé : Bon nombre de ces territoires utilisent les bacs à sable réglementaires comme un outil permettant au secteur privé de collaborer avec les décideurs politiques pour élaborer des règles qui répondent à l’objectif principal consistant à promouvoir une IA sûre et éthique, ainsi que pour examiner les conséquences de l’innovation à haut risque associée à l’IA, pour laquelle une surveillance plus étroite peut s’avérer appropriée.
Autres réflexions sur l’IA à l’intention des décideurs politiques
D’autres facteurs doivent être pris en compte dans l’élaboration de la politique en matière d’IA :
- Veiller à ce que les organismes de réglementation aient accès à une expertise en la matière suffisante pour mettre en œuvre, surveiller et appliquer ces politiques avec succès
- Veiller à ce que les politiques soient claires, si l’objectif de la réglementation est de couvrir les risques découlant soit de la technologie elle-même (par exemple, des fonctions comme le traitement du langage naturel ou la reconnaissance faciale), soit de la manière dont la technologie d’IA est utilisée (par exemple, l’application de l’IA dans les processus d’embauche), ou des deux.
- Examiner la mesure dans laquelle les politiques et procédures de gestion des risques, ainsi que la responsabilité de la conformité, devraient concerner les fournisseurs tiers qui proposent des produits et des services liés à l’IA.
En outre, les décideurs politiques devraient, dans la mesure du possible, s’engager dans des processus multilatéraux visant à rendre les règles relatives à l’IA interopérables et comparables entre les différents territoires, afin de limiter les risques associés à l’arbitrage réglementaire, lesquels sont particulièrement importants lorsqu’il s’agit de règles régissant l’utilisation d’une technologie transnationale telle que l’IA.