6 minutes de lecture 10 mai 2023
Photo d’une héroïne dont l’entreprise réinsuffle de l’intelligence dans son environnement IA

Réinsufflez de l’intelligence dans votre environnement IA – Préparez votre entreprise à faire face à l’avenir

Par Carlos Perez Chalico

Cybersécurité et protection des renseignements personnels, EY Privé, Canada

J’ai plus de 23 ans d’expérience en cybersécurité, en gestion des risques liés aux TI et en protection des renseignements personnels. Dans mes temps libres, je lis, j’écris, je fais du vélo et du bénévolat.

6 minutes de lecture 10 mai 2023
Sujets connexes Cybersécurité

Contributeur :  Charitarth Bharti

Avec l’avènement de ChatGPT et de l’IA générative, qui ouvrent de nouvelles perspectives, les entreprises canadiennes doivent prendre position et adopter des mesures proactives pour la protection des données et des renseignements à caractère personnel.

En bref 

  • Les entreprises canadiennes doivent assurer la protection des données et des renseignements à caractère personnel, en se conformant aux nouvelles dispositions réglementaires qui entrent en vigueur cette année.
  • Toutes les technologies reposant sur l’IA, telles que les transformateurs génératifs préentraînés (GPT), soulèvent des questions de gouvernance auxquelles s’efforcent de répondre les autorités, qui souhaitent définir des règles permettant d’éviter les risques, notamment en matière de responsabilité et de cybercrimes.

Tandis qu’un logiciel comme ChatGPT nous propulse vers de nouveaux horizons, le moment est peut-être venu pour les entreprises canadiennes de prendre position face à l’IA générative et de mettre en œuvre des mesures proactives pour la protection des données et des renseignements à caractère personnel.

Tandis que le Canada s’apprête à se doter d’un nouveau cadre de réglementation de l’utilisation des renseignements à caractère personnel qui devrait entrer en vigueur au début de l’année, de nombreuses entreprises sont susceptibles de ne pas remarquer l’intrusion dans leur système de défense d’un cheval de Troie tout à fait réel qui peut les exposer à des risques considérables, notamment en matière de responsabilité, à savoir l’exploitation inconsidérée de l’intelligence artificielle (IA).

Il n’y a pas si longtemps, le monde a assisté à l’avènement des premières générations de GPT, qui constituent une famille de solutions reposant sur de grands modèles de langage (LLM), qui sont devenus accessibles au public et qui ont généré de nouvelles attentes quant aux avantages susceptibles de découler de leur utilisation à des fins personnelles ou commerciales. Depuis lors, nous avons été témoins de l’évolution de ces GPT, à mesure qu’ils faisaient irruption sur le marché grand public et qu’ils gagnaient en popularité en prouvant leur utilité en tant qu’outils de soutien à la productivité des employés, passant même avec succès les tests les plus difficiles pour les êtres humains.

Il y a lieu toutefois de s’interroger quant aux sources d’information utilisées pour l’entraînement de ces systèmes ou quant à la légitimité et à l’exactitude des données exploitées par ceux-ci. Si elles ne sont pas soumises à une surveillance et à des examens adéquats, les solutions reposant sur l’IA peuvent exposer les entreprises à divers risques, allant des risques de responsabilité associés à la fraude jusqu’aux risques de piratage psychologique et de cybercrime, en passant par les risques d’atteinte à la confidentialité et les risques de violation du droit d’auteur.

Alors que le Canada est en voie de se doter de son premier cadre législatif sur l’IA – la Loi sur l’intelligence artificielle et les données (LIAD), qui découle du projet de loi C 27 –, il semble que des projets visant à prescrire des obligations communes en matière de conception, de développement et d’utilisation des solutions reposant sur l’IA soient en cours de réalisation. Toutefois, comme c’est le cas dans le contexte de la législation européenne sur l’IA, dont les visées s’apparentent à celles de la LIAD, l’émergence de technologies reposant sur l’IA, telles que les GPT, amène les autorités à réfléchir à un cadre de gouvernance et à travailler à la définition de règles régissant la mise en œuvre.

La question de la portée du cadre législatif se pose : comment définir l’IA de telle sorte qu’elle soit assujettie à des dispositions réglementaires et législatives? La minimisation des risques constituera un volet important. Il s’agit d’un défi complètement nouveau, car il peut s’avérer difficile d’anticiper la façon dont évoluera l’IA. En outre, il importera de redéfinir continuellement les lignes directrices applicables – telles que la LIAD et la législation européenne sur l’IA –, qui visent à régir l’utilisation de ces technologies et à prévenir le risque que celles-ci soient exploitées à mauvais escient, car il arrive souvent que la réglementation n’évolue pas au rythme auquel se succèdent les changements technologiques.

L’adoption de dispositions réglementaires plus strictes pour les applications et les modèles fondamentaux présentant un risque élevé constituera un point de départ, car la conformité aux exigences de gestion des risques et de la qualité sera désormais contrôlée au moyen d’audits externes. Le processus de réglementation n’est toutefois pas aussi facile qu’on pourrait le croire, pouvant donner lieu à des discussions sur les paramètres à appliquer et susciter des questionnements, notamment quant à un éventuel bannissement des systèmes de reconnaissance biométrique, comme cela a été le cas pour la législation européenne sur l’IA. Étant donné que de plus en plus de questions sont soulevées au cours du processus d’élaboration finale, les cadres législatifs canadien et européen seront probablement déjà dépassés au moment de leur entrée en vigueur.

Il est néanmoins essentiel de passer à l’action. Et le temps est le nerf de la guerre. Sous la direction du Future of Life Institute, un groupe a publié récemment une pétition demandant aux laboratoires de recherche sur l’IA de suspendre immédiatement leurs activités d’entraînement des systèmes reposant sur l’IA, surtout celles liées à des systèmes plus puissants que les solutions GPT-4 de nouvelle génération, évoquant les risques considérables que l’exploitation de telles technologies – que même les créateurs n’arrivent pas à comprendre, à en prévoir l’évolution ni à contrôler infailliblement – fait peser sur la société et le genre humain.

Toutefois, à lui seul, le contrôle des travaux menés par les développeurs ne constitue pas une panacée. Pour permettre l’accès aux technologies reposant sur l’IA et aux nombreux avantages qui en découlent, tout en réduisant les risques liés à l’appât du gain des entreprises, il sera nécessaire d’établir des règles claires.

L’odyssée de l’IA

Malgré la pléthore de films de science-fiction reposant sur des scénarios de perte de contrôle de l’IA mettant en garde contre les dangers d’une intelligence artificielle entrant en concurrence avec l’intelligence humaine, il est encore trop tôt pour anticiper l’occurrence d’événements de l’ampleur de ceux que déclenche Skynet dans le film Terminator. Néanmoins, l’évolution effrénée qu’a connue ChatGPT depuis son déploiement initial en novembre 2022 devrait être une raison suffisante pour suspendre les travaux de recherche en IA.

La technologie des GPT se propage au delà des ressources à base de code source libre puisqu’elle est désormais intégrée à des offres commerciales légitimes. La société OpenAI a procédé récemment au déploiement de WhisperAPI, un nouveau logiciel qui facilite la transcription et la traduction automatiques de la parole, tandis que le géant technologique Microsoft a intégré la technologie des GPT à son programme Security Copilot, dont l’avènement sur le marché est imminent et qui exploite cette technologie dans l’analyse de grands volumes de données et la détection des brèches de sécurité informatique.

Dans un contexte où de nouveaux plugiciels et modules d’extension sont déployés pour faciliter l’entraînement de ChatGPT et en optimiser la performance, tout en renforçant sa capacité à traiter le langage naturel ou à interpréter les émotions, l’application de balises et de contrôles sera essentielle, en attendant l’entrée en vigueur des dispositions réglementaires prévues. Dans l’intervalle, en l’absence de contrôles, il importe que les entreprises définissent les modalités et circonstances en fonction desquelles l’utilisation de tels outils peut ou devrait être envisagée, en mettant en œuvre les lignes directrices et les activités de surveillance leur permettant de se prémunir contre le risque de fuite d’informations organisationnelles confidentielles ou sensibles, ainsi que de prévenir l’absorption et la réutilisation de ces informations par l’environnement GPT.

Le rapport Australian Responsible AI Index révèle que, bien que 82 % des entreprises estiment exploiter l’IA de façon responsable, moins du quart ont mis en œuvre des mesures axées sur un déploiement responsable de cette technologie et la protection de leur organisation.

Face à tant de facteurs inconnus, les entreprises devront investir dans des stratégies responsables adaptées à l’évolution de l’IA, sans tarder à prendre les mesures préventives qui s’imposent, car, qu’elles le veuillent ou non, l’avenir est à nos portes.

Confiance dans la mission

Il importe de parvenir à un équilibre entre les risques et les nombreux avantages que comporte l’IA. Mais par où commencer? Pour progresser rapidement et exploiter plus facilement l’IA de façon responsable, votre entreprise doit dès maintenant mettre en œuvre les trois mesures suivantes :

Se préparer à l’attention que susciteront ses services reposant sur l’IA

Les équipes de marketing sont généralement attirées par les services reposant sur l’IA, étant donné les nombreux avantages qui s’y rattachent, notamment au chapitre des gains d’efficacité, des économies de coûts et de la diminution des activités nécessitant beaucoup d’interventions manuelles. Toutefois, qu’il s’agisse de faire la promotion de vos propres produits ou de ceux d’un fournisseur tiers, vous devez éviter de recourir à des services reposant sur l’IA si vous pouvez vous en–passer.

L’utilisation de l’IA s’accompagne de risques importants, allant des risques d’atteinte à la confidentialité et au cadre de protection des consommateurs jusqu’aux risques de violation du droit d’auteur et de la propriété intellectuelle, en plus des exigences de conformité et des obligations légales à respecter. Dans un contexte où le climat d’euphorie prend de l’ampleur dans le secteur et où les capacités IA gagnent en puissance, on ne peut s’attendre qu’à un foisonnement de questions, notamment quant à l’identification des propriétaires des informations recyclées, voire du code généré à partir des données sources exploitées par des GPT.

Passez en revue les directives et les normes de votre entreprise qui se rapportent à l’IA et à son utilisation acceptable.

Commencez par élaborer des politiques établissant clairement les paramètres d’utilisation acceptable en vue de la gestion des interactions de votre entreprise avec ses employés et les parties auprès desquelles elle s’engage par contrat, ou de l’interdiction du recours à l’IA lorsque le risque s’avère trop important. Actualisez le matériel de formation des employés sur les modalités d’utilisation de l’IA et rappelez les stratégies de cybersécurité à appliquer. Vous pourrez ainsi plus facilement réduire les risques d’atteinte à la sécurité et à la confidentialité de votre entreprise, dans la foulée de la prolifération des courriels d’hameçonnage de plus en plus sophistiqués et vraisemblables, qui va de pair avec l’utilisation des logiciels LLM. Envisagez également la possibilité de mettre en œuvre des paramètres par défaut pour restreindre l’utilisation inacceptable de solutions GPT ou rendre obligatoire l’établissement d’une documentation relatant les circonstances dans lesquelles une telle solution a été utilisée au travail.

Faites appel à un exploitant fiable et confiez l’évaluation de tous vos systèmes reposant sur l’IA à un auditeur indépendant.

D’ores et déjà, des fonctionnalités IA sont intégrées à des programmes logiciels opérationnels en vogue. Étant donné sa nature même, l’IA générative peut toutefois exposer une entreprise à des risques juridiques et commerciaux, de même qu’au risque d’entacher sa réputation, lorsque cette technologie n’est pas utilisée de façon responsable. Les messages-guides utilisateurs risquent de mener à des vols de données d’employés, de clients et d’entreprise ou au passage involontaire d’informations organisationnelles à caractère stratégique et exclusif dans le domaine public.

Pour contrer la critique et prévenir les éventuels contrôles réglementaires, ChatGPT intègre désormais des commandes qui permettent de désactiver son « historique de clavardage », de sorte que les conversations dont l’historique a été désactivé ne puissent pas servir à l’entraînement des modèles sous jacents exploités par OpenAI, ni être affichées dans la barre d’historique. Ces conversations sont plutôt stockées dans les serveurs de l’entreprise, passées en revue au besoin, de façon à en prévenir l’utilisation abusive, puis supprimées au terme d’une période de trente jours.

En outre, des fonctionnalités opérationnelles accessibles par abonnement permettent aux professionnels de contrôler l’accès à leurs données, tandis que les entreprises peuvent les exploiter dans la gestion des activités de leurs utilisateurs finaux. La concurrence s’intensifiant dans ce secteur, des modèles de substitution – notamment la solution StableLM de Stability AI et des modèles à base de code source libre tels qu’Open Assistant – sont mis à la disposition des entreprises, de façon à répondre à leurs préférences en matière de performance, de transparence, de contrôle de la confidentialité, etc.

Il importe de reconnaître les spécificités des produits reposant sur l’IA et de leurs exploitants. Bien que les pratiques de protection des renseignements à caractère personnel et d’exploitation des données figurent parmi les principaux indicateurs à cibler, le recours à un tiers indépendant peut faciliter le repérage des aspects préoccupants, ainsi que l’obtention de recommandations axées sur l’évitement des risques. Les entreprises qui confient à un auditeur l’évaluation de leur environnement IA sont plus à même de renforcer la confiance qu’elles inspirent à leurs parties prenantes, de protéger les informations de leurs clients, de préserver leur réputation organisationnelle et d’assurer la pérennité de leurs systèmes opérationnels à mesure qu’évolue le cadre réglementaire auquel elles sont assujetties.

Dans un monde de plus en plus dépendant des technologies, les entreprises devront absolument évaluer et réévaluer la valeur qu’elles tirent de leurs outils reposant sur l’IA, ainsi que prendre conscience des risques nouveaux ou potentiels auxquels les expose celle-ci, au même titre que toute autre technologie. Tandis que l’IA poursuit son évolution, synonyme de nouvelles capacités, les entreprises doivent rester vigilantes face aux nouveaux défis à relever, tout en faisant preuve de suffisamment de souplesse pour mettre en œuvre les mesures de protection essentielles à la réalisation de leur mission.

Résumé

Les entreprises canadiennes qui ont recours à l’IA, surtout celles qui exploitent des GPT, peuvent faire face à des risques importants, notamment en matière de responsabilité, en raison de la fiabilité douteuse des sources d’information utilisées pour entraîner ces systèmes, lesquels risques peuvent donner lieu à des cas de fraude, à des vols de données et à des cybercrimes. Tandis que le Canada s’apprête à mettre en œuvre ses premières dispositions législatives encadrant l’utilisation de l’IA, les entreprises doivent investir dans des stratégies responsables permettant d’atténuer les risques. 

À propos de cet article

Par Carlos Perez Chalico

Cybersécurité et protection des renseignements personnels, EY Privé, Canada

J’ai plus de 23 ans d’expérience en cybersécurité, en gestion des risques liés aux TI et en protection des renseignements personnels. Dans mes temps libres, je lis, j’écris, je fais du vélo et du bénévolat.

Sujets connexes Cybersécurité