Faire évoluer l’IA responsable en atténuant le risque de reproduction de préjugés sociaux dans les modèles de langage

Sujets connexes

L’étude d’EY, qui porte sur la reproduction des préjugés sociaux en IA, propose des informations et des méthodes qui favorisent l’adoption de modèles de langage éthiques et l’innovation responsable.

Coécrit par :

En bref

  • En collaboration avec l’Institut Vecteur et l’Université Queen’s, EY a réalisé des études essentielles qui portent sur la lutte contre la reproduction de préjugés sociaux dans l’élaboration de stratégies et de méthodes concrètes visant l’exploitation éthique de l’IA générative dans divers secteurs.
  • Les principales conclusions de ces deux études mettent en lumière des approches novatrices – dont le cadre BiasKG et des techniques de désapprentissage efficaces – qui favorisent l’atténuation du risque de reproduction des préjugés sociaux, tout en faisant en sorte que les entreprises puissent se positionner de façon à améliorer la transparence de leurs systèmes d’IA et à renforcer la confiance qu’ils inspirent.

Dans notre monde actuel où les progrès technologiques se succèdent de plus en plus rapidement, les entreprises qui tiennent à conserver un avantage concurrentiel doivent absolument se tenir à l’affût de l’évolution de l’IA.

Reconnaissant qu’il s’agit d’une nécessité, l’équipe EY a travaillé en collaboration avec l’Institut Vecteur, l’Université Queen’s et des participants du secteur dans la réalisation d’un projet de recherche mené en collaboration qui a porté sur la détection des préjugés reproduits dans les grands modèles de langage. Ce projet, qui a reposé aussi bien sur des connaissances de pointe en IA et en apprentissage automatique que sur des capacités d’ingénierie d’IA avancées, vise à faire en sorte que des travaux de recherche novateurs mènent à la mise en œuvre de solutions sectorielles pratiques, ainsi qu’à en promouvoir l’adoption dans tous les secteurs. Dans le cadre de cette collaboration, l’équipe EY a contribué à l’avancement des techniques d’atténuation du risque de reproduction des préjugés, tout en produisant des outils et des informations très utiles à l’appui de l’exploitation éthique et efficace de l’IA dans des situations réelles.

Dans le contexte de l’adoption généralisée de grands modèles de langage tels que GPT‑4 et LaMA‑2 dans le cadre des activités opérationnelles des entreprises, il est devenu urgent d’atténuer le risque de reproduction de préjugés sociaux dans ces systèmes.

C’est pourquoi deux études essentielles ont été menées dans le cadre d’un projet de recherche réalisé en collaboration. En collaboration avec l’Institut Vecteur et des chercheurs d’autres organisations importantes, l’équipe EY a produit des informations essentielles et des stratégies applicables qui permettent d’atténuer le risque de reproduction de préjugés sociaux dans les systèmes d’IA, tout en maintenant la performance de ces derniers. Ces études mettent en lumière la façon dont les grands modèles de langage risquent de produire des résultats reproduisant des préjugés, en plus de proposer des stratégies d’atténuation évoluées.

La première étude, qui est parue sous le titre BiasKG: Adversarial Knowledge Graphs to Induce Bias in Large Language Models, révèle que les grands modèles de langage sont susceptibles de faire l’objet de manipulations et de reproduire des préjugés sociaux. En appliquant le cadre BiasKG, qui repose sur une technique spécialisée, les chercheurs ont démontré comment de tels préjugés deviennent particulièrement prononcés dans le cas de modèles entraînés à partir de connaissances dont le contexte est biaisé.

Le cadre BiasKG consiste en un graphique de connaissances nouvelles qui reproduisent des préjugés sociaux et qui sont intégrées à un modèle au moyen du processus de génération améliorée par récupération d’information. La performance des modèles s’en trouve rehaussée lorsqu’ils sont appelés à générer des informations explicatives en mettant en corrélation l’équité, la transparence et l’éthique en matière d’IA. Le cadre BiasKG a permis de détecter la présence de préjugés sociaux dans les systèmes d’IA, son utilité en contexte de tests et d’évaluation de leur capacité à se prémunir contre le risque de reproduction de tels préjugés ayant été démontrée.

Ces travaux font ressortir l’importance pour les entreprises de disposer d’outils de détection précoce qui leur permettent de préserver la confiance des parties prenantes, tout en favorisant l’exploitation éthique de l’IA. Le rapport d’étude a été accepté au cours de l’atelier TrustNLP, qui a eu lieu lors du congrès annuel 2024 de la division nord-américaine de l’Association for Computational Linguistics (ACL).

 

Quant à la seconde étude, parue sous le titre Mitigating Social Biases in Language Models through Unlearning, elle analyse des méthodes de pointe qui permettent de réduire le risque de reproduction de préjugés dans les grands modèles de langage, sans que ceux-ci aient à être entraînés de nouveau et sans qu’il soit nécessaire d’engager des coûts en lien avec les calculs connexes. Entre toutes les méthodes testées, c’est la négation par vecteur de tâches (méthode TV) qui s’est avérée la plus efficace. Appliquée à certains modèles, cette méthode a permis de réduire jusqu’à 40 % le risque de reproduction de préjugés, dans un contexte où la performance des modèles a pu être maintenue, de même que la souplesse nécessaire à leur adaptation à des besoins particuliers.

 

L’optimisation directe des préférences (méthode DPO) s’est avérée efficace, mais elle a exigé la réalisation de nombreux calculs, tandis que la méthode PCGU (partitioned contrastive gradient unlearning) présente un certain potentiel, bien qu’elle doive être perfectionnée de façon à en assurer la cohérence et à favoriser la génération de résultats consistants.

 

Les conclusions obtenues mettent en évidence les solutions de compromis sur lesquelles reposent les diverses techniques, de même que l’évolutivité et l’adaptabilité de la méthode TV, qui se démarque parmi les options auxquelles peuvent recourir les entreprises qui aspirent à un équilibre entre l’impératif d’assurer l’équité et la nécessité de maintenir leur efficacité opérationnelle. Ces travaux ont été reconnus au cours de l’atelier TrustNLP, qui a eu lieu dans le cadre du congrès 2024 de la division nord-américaine de l’ACL, de même que dans le volet Suivi sectoriel du congrès 2024 sur l’application de méthodes empiriques dans le traitement du langage naturel.

 

Conjointement, ces études ont permis aux entreprises de bien se familiariser avec les préjugés susceptibles d’être reproduits dans les systèmes d’IA, tout en constituant des outils pratiques qui permettent d’atténuer les risques à cet égard. En tirant parti des informations et techniques découlant de ces travaux de recherche menés en collaboration, les entreprises peuvent faire en sorte que leurs systèmes d’IA soient conformes aux règles d’éthique, transparents et alignés sur leurs objectifs stratégiques à long terme. Les entreprises qui sauront bénéficier de ces avancées se positionneront en tant que leaders de l’innovation en matière d’IA responsable.

 

Ces travaux de recherche sont le fruit de la collaboration entre des professionnels chevronnés en IA. Chu Fei Luo et Faiza Khan Khattak de l’Institut Vecteur, Ahmad Ghawanmeh d’EY et Xiaodan Zhu de l’Université Queen’s ont contribué à la mise au point du cadre BiasKG.

 

Omkar Dige et Faiza Khan Khattak de l’Institut Vecteur, Diljot Singh, Tsz Fung Yau et Mohammad Bolandraftar de la Banque Scotiabank, Qixuan Zhang d’EY et Xiaodan Zhu de l’Université Queen’s sont les coauteurs de l’étude sur le désapprentissage automatique.

 

Les points de vue exposés dans le présent article sont ceux de l’auteure et ne correspondent pas nécessairement à ceux de l’organisation EY mondiale ou à ceux de ses sociétés membres.

Résumé

En collaboration avec l’Institut Vecteur et l’Université Queen’s, EY a réalisé des études essentielles axées sur la lutte contre la reproduction des préjugés sociaux dans la conception des grands modèles de langage. Cette initiative a mené à la mise au point de stratégies et de méthodes concrètes visant l’exploitation éthique de l’IA générative. Dans leurs principales conclusions, ces deux études présentent le cadre BiasKG et des techniques de désapprentissage efficaces qui confèrent aux entreprises les outils dont elles ont besoin pour améliorer la transparence de leurs systèmes d’IA et renforcer la confiance qu’ils inspirent, tout en faisant la promotion de l’innovation responsable dans divers secteurs.

À propos de cet article

You are visiting EY ca (fr)
ca fr