6 minutes de lecture 15 mars 2024
Illustrations of people going to parties at night

La loi européenne sur l'IA: ce que cela signifie pour votre entreprise

Auteurs
Konrad Meier

Senior Manager, AI Law Leader in Financial Services | EY Switzerland

Solution-oriented financial services lawyer with an entrepreneurial mindset.

Roger Spichiger

Partner, Responsible AI Leader in Financial Services | EY Switzerland

Supports financial services clients on their AI journey with deep finance, risk and regulatory transformation expertise. Roger loves the water, mountains and all kinds of sports.

6 minutes de lecture 15 mars 2024

La réglementation de l'UE sur l'intelligence artificielle est imminente. Qu'est-ce que cela signifie pour vous et votre entreprise en Suisse ?

En bref

  • La loi européenne sur l'intelligence artificielle impose des exigences strictes, y compris aux entreprises qui n'avaient pas eu à s'occuper de gestion de modèles jusqu'ici.
  • Dans un premier temps, les organisations doivent obtenir une vue d'ensemble, créer un répertoire de tous les modèles et appliquer une gestion de ces modèles.
  • La loi européenne sur l'IA devrait entrer en vigueur au deuxième trimestre 2024, avec des périodes de transition de 6 à 24 mois pour se conformer aux différentes exigences.

L'intelligence artificielle (IA) transforme notre monde comme jamais auparavant. Des soins de santé personnalisés aux voitures autonomes en passant par les assistants virtuels, l'IA devient omniprésente dans notre vie quotidienne. Cette utilisation croissante de l'IA a toutefois suscité de nombreuses inquiétudes quant à son impact sur les libertés et droits fondamentaux. Face à cette situation, l'Union européenne (UE) a pris une mesure importante pour réglementer l'IA.

La loi européenne sur l'IA, également connue sous le nom de loi sur l'intelligence artificielle, est la première initiative concrète au monde visant à réglementer l'IA. Elle vise à faire de l'Europe le centre mondial d’une IA digne de confiance en établissant des règles harmonisées régissant le développement, la commercialisation et l'utilisation de l'IA dans l'UE. La loi sur l'IA vise à garantir que les systèmes d'IA dans l'UE sont sûrs et respectent les valeurs et droits fondamentaux. En outre, ses objectifs sont de favoriser l'investissement et l'innovation dans l'IA, d'améliorer la gouvernance et l'application des règles et d'encourager la création d'un marché unique de l'IA dans l'UE.

Qui est concerné ?

La loi sur l'IA a établi des définitions claires pour les différents acteurs impliqués dans l'IA: fournisseurs, déployeurs, importateurs, distributeurs et fabricants de produits. Cela signifie que toutes les parties impliquées dans le développement, l'utilisation, l'importation, la distribution ou la fabrication de systèmes d'IA devront assumer leurs responsabilités. En outre, la loi sur l'IA s'applique également aux fournisseurs et aux utilisateurs de systèmes d'IA situés en dehors de l'UE, par exemple en Suisse, si les résultats produits par le système sont destinés à être utilisés dans l'UE.

Quelles mesures prendre ?

Mesure 1 : Inventaire des modèles – comprendre la situation actuelle

Pour comprendre les implications de la loi européenne sur l'IA, les entreprises doivent d'abord déterminer si elles disposent de systèmes d'IA en cours d'utilisation et de développement, ou si elles sont sur le point d'acquérir de tels systèmes auprès de fournisseurs tiers, et dresser la liste des systèmes d'IA identifiés dans un répertoire de modèles. De nombreux prestataires de services financiers peuvent utiliser les répertoires de modèles existants et la gouvernance des modèles qui les encadre et ajouter l'IA comme élément supplémentaire.

Les organisations qui n'ont pas encore eu besoin d'un répertoire de modèles jusqu'à présent doivent commencer par une évaluation de la situation actuelle pour comprendre leur exposition (potentielle). Même si l'IA n'est pas utilisée à l'heure actuelle, il est très probable que cela changera dans les années à venir. Une première identification peut être réalisée à partir d'un catalogue de logiciels existant ou, si celui-ci n'est pas disponible, à l'aide d'enquêtes envoyées aux différentes unités opérationnelles. 

Mesure 2 : Classification des risques des modèles

Les modèles d'IA peuvent être classés par risque sur la base du répertoire de systèmes. La loi européenne sur l'IA distingue différentes catégories de risques:

La loi donne des exemples de systèmes présentant un risque inacceptable. Les systèmes entrant dans cette catégorie sont interdits. Il s'agit par exemple de l'utilisation de l'identification biométrique à distance en temps réel dans les espaces publics ou de systèmes de notation sociale, ainsi que de l'utilisation de techniques d'influence subliminale qui exploitent les vulnérabilités de groupes spécifiques.

Les systèmes à haut risque sont autorisés, mais doivent satisfaire à de multiples exigences et faire l'objet d'une évaluation de conformité. Cette évaluation doit être réalisée avant que le système ne soit mis sur le marché. Ces systèmes doivent également être enregistrés dans une base de données de l'UE qui doit être mise en place. L'exploitation de systèmes d'IA à haut risque nécessite un système de gestion des risques approprié, des capacités de suivi et d’enregistrement des utilisations et une surveillance humaine, en plus d’un collaborateur propriétaire et responsable du système. Les données utilisées pour l'entraînement, les essais et la validation doivent faire l'objet d'une gouvernance appropriée, et des contrôles doivent être effectués pour garantir la cybersécurité, la robustesse et l'équité du modèle.

Les systèmes à haut risque sont, par exemple, les modèles liés à l'exploitation d'infrastructures critiques, les systèmes utilisés dans les processus de recrutement ou de notation des employés, les systèmes d'évaluation du crédit, le traitement automatisé des déclarations de sinistres ou la fixation des primes de risque pour les clients.

Les autres systèmes sont considérés comme présentant un risque limité ou minimal. La transparence est requise pour ces systèmes, c'est-à-dire que l'utilisateur doit être informé que ce avec quoi il interagit est généré par l'IA. Cela concerne par exemple les «chat bots» ou les «deep fakes», qui ne sont pas considérés comme présentant un risque élevé, mais pour lesquels il est obligatoire que les utilisateurs sachent que l'IA en est à l'origine.

Pour tous les opérateurs de systèmes d'IA, l’application d'un code de conduite sur l'IA éthique est recommandée. En particulier, les modèles d'IA à usage général (General-purpose AI models - GPAI), y compris les modèles de base et les systèmes d'IA générative, font l'objet d'une classification distincte. La loi sur l'IA adopte une approche par paliers pour les obligations de conformité, en faisant la distinction entre les modèles GPAI à fort impact présentant un risque systémique et les autres modèles GPAI.

Mesure 3 : Anticiper et être prêt 

Si vous êtes un fournisseur, un utilisateur, un importateur, un distributeur ou une personne concernée par les systèmes d'IA, vous devez vous assurer que vos pratiques en matière d'IA sont conformes à ces nouvelles réglementations. Pour commencer à vous conformer pleinement à la loi sur l'IA, vous devez entreprendre les démarches suivantes: (1) évaluer les risques associés à vos systèmes d'IA, (2) sensibiliser, (3) concevoir des systèmes éthiques, (4) attribuer les responsabilités, (5) rester à jour et (6) établir une gouvernance formelle. En prenant des mesures proactives dès maintenant, vous pouvez éviter des sanctions potentielles importantes pour votre organisation lors de l'entrée en vigueur de la loi.

La loi sur l'IA devrait entrer en vigueur au deuxième trimestre 2024, après sa publication au Journal officiel de l'Union européenne. Des périodes de transition pour la mise en conformité seront ensuite imposées, les entreprises disposant de 6 mois pour se conformer aux exigences relatives aux systèmes d'IA interdits, de 12 mois pour certaines exigences relatives à l'IA à usage général, et de 24 mois pour parvenir à une conformité législative complète.

Quelles sont les sanctions en cas de non-respect de la loi ?

Les sanctions prévues en cas de non-respect de la loi sur l'IA sont importantes et susceptibles d'avoir de graves répercussions sur les activités du fournisseur ou du déployeur. Elles vont de 7.5 à 35 millions d'euros ou de 1 à 7% du chiffre d'affaires annuel global, en fonction de la gravité de l'infraction. Il est donc essentiel que les parties prenantes s'assurent de bien comprendre la loi sur l'IA et de se conformer à ses dispositions.

Quel est l'impact de la loi sur le secteur des services financiers ?

Les services financiers ont été identifiés comme l'un des secteurs sur lesquels l'IA pourrait avoir l'impact le plus important. La loi européenne sur l'IA contient un modèle de classification des risques à trois niveaux qui classe les systèmes d'IA en fonction du niveau de risque qu'ils représentent pour les droits fondamentaux et la sécurité des utilisateurs. Le secteur financier utilise une multitude de modèles et de processus fondés sur des données qui, à l'avenir, s'appuieront davantage sur l'IA. Les processus et les systèmes d'IA utilisés pour l'évaluation de la solvabilité ou l'évaluation des primes de risque des clients entrent dans la catégorie des systèmes d'IA à haut risque au sens de la loi sur l'IA. En outre, les systèmes d'IA utilisés pour l'exploitation et la maintenance d'infrastructures financières considérées comme critiques entrent également dans la catégorie des systèmes d'IA à haut risque, tout comme les systèmes d'IA utilisés pour l'identification biométrique et la catégorisation des personnes physiques ou la gestion de l'emploi et des employés. 

Illustrations of people going to parties at night

EU AI Act brochure

Téléchargez le PDF pour avoir une vue d'ensemble de la loi européenne sur l'intelligence artificielle et de son impact sur les marchés.

Télécharger le PDF

Résumé

La loi européenne sur l'IA constituera une étape importante dans le domaine de la réglementation et de l'innovation en matière d'IA. Pour que les avantages de l'IA soient pleinement exploités tout en protégeant les droits fondamentaux et la sécurité des utilisateurs, il est important que les organisations agissent dès maintenant, évaluent leurs risques et commencent à se préparer aux changements qu'apportera la loi sur l'IA. Les organisations pourront ainsi évoluer vers un environnement d'IA plus sûr et plus fiable qui leur permettra de bénéficier des avantages de cette technologie transformatrice.

Remerciements:

Nous remercions Ava Dossi et Konrad Schwenke pour leur contribution à cet article.

À propos de cet article

Auteurs
Konrad Meier

Senior Manager, AI Law Leader in Financial Services | EY Switzerland

Solution-oriented financial services lawyer with an entrepreneurial mindset.

Roger Spichiger

Partner, Responsible AI Leader in Financial Services | EY Switzerland

Supports financial services clients on their AI journey with deep finance, risk and regulatory transformation expertise. Roger loves the water, mountains and all kinds of sports.