EY désigne l’organisation mondiale des sociétés membres d’Ernst & Young Global Limited, et peut désigner une ou plusieurs de ces sociétés membres, lesquelles sont toutes des entités juridiques distinctes. Ernst & Young Global Limited, société à responsabilité limitée par garanties du Royaume‑Uni, ne fournit aucun service aux clients.
Comment EY peut vous aider
-
Exploitez les avantages de l’ère numérique pour stimuler l’innovation, améliorer l’efficacité opérationnelle et assurer la croissance de votre entreprise.
Pour en savoir plus.
Fairlearn dispose de deux types d’algorithmes d’atténuation des iniquités : les algorithmes de post‑traitement et les algorithmes de réduction, afin d’aider les utilisateurs à optimiser l’équité dans leurs systèmes d’IA. Ces deux types d’algorithmes agissent comme des « enveloppes » pour tout algorithme de classification ou de régression générique.
Les algorithmes de post‑traitement de Fairlearn se basent sur un modèle déjà entraîné et adaptent ses prédictions de manière à ce qu’elles respectent les contraintes imposées par la mesure d’équité sélectionnée (p. ex. la parité démographique) tout en optimisant les performances du modèle (p. ex. le taux d’exactitude). Il n’est pas nécessaire d’entraîner à nouveau le modèle.
À titre d’exemple, si l’on dispose d’un modèle qui prédit la probabilité qu’un candidat ne rembourse pas son prêt, un algorithme de post‑traitement tentera de trouver un seuil au‑dessus duquel le candidat pourra bénéficier d’un prêt. Ce seuil est généralement différent pour chaque groupe de personnes (défini en fonction de l’élément sensible sélectionné). Les algorithmes de post‑traitement sont donc limités dans leur portée, car les caractéristiques sensibles peuvent ne pas être disponibles au moment du déploiement, être inappropriées ou, dans certains domaines, être interdites par la loi.
Les algorithmes de réduction de Fairlearn enveloppent n’importe quel algorithme de classification ou de régression générique, pondèrent régulièrement les données d’apprentissage et entraînent à nouveau le modèle après chaque repondération. Ce processus aboutit, après 10 à 20 itérations, à un modèle qui répond aux contraintes imposées par la mesure d’équité sélectionnée tout en optimisant les performances du modèle.
Les algorithmes de réduction ne nécessitent pas l’accès à des caractéristiques sensibles au moment du déploiement et fonctionnent avec de nombreuses mesures d’équité différentes. En outre, ces algorithmes permettent de former plusieurs modèles qui font des concessions différentes entre l’équité et la performance du modèle, ce que les utilisateurs peuvent comparer à l’aide du tableau de bord de visualisation interactif de Fairlearn.