4 minuten leestijd 19 december 2023

7 aandachtspunten voor het implementeren van Responsible AI

Door Bernadette Wesdorp

EY Nederland Director, Financial Services Privacy Leader & Trusted AI Leader

Leider op het gebied van privacy voor de financiële dienstverleningssector en trusted AI in Nederland. Moeder van twee kinderen. Voormalig professioneel hockeyster. Houdt van hardlopen en zwemmen.

4 minuten leestijd 19 december 2023
Related topics AI

Ben u klaar voor de toekomst? Het EY Responsible AI-framework biedt een concrete aanpak om verantwoordelijk om te gaan met AI.

Responsible AI en de AI Act worden vaak gezien als blokkerende factoren. Dat is nergens voor nodig. Organisaties hoeven namelijk helemaal niet in te leveren op innovatie als ze de security, privacy en de ethische en governance aspecten goed inregelen in hun AI design.

Het EY Responsible AI-framework stelt organisaties in staat om AI-risico's te verminderen en tegelijkertijd te voldoen aan de AI Act die in december is aangenomen. Hieronder vind je de zeven aandachtspunten die EY heeft geformuleerd om op een verantwoorde manier met AI om te gaan:

1. Verantwoordelijkheid

  • Vanwege het multidisciplinaire karakter van AI Governance is het belangrijk om iemand binnen de organisatie verantwoordelijk te stellen voor de ontwikkeling en implementatie van AI-systemen.
  • Formuleer beleid waarin wordt vastgelegd hoe AI-systemen binnen de organisatie gebruikt dienen te worden, welke processen gevolgd moeten worden en bij waar de verantwoordelijkheden liggen.
  • Betrek medewerkers bij de invoering en implementatie van AI. Laat ze meedenken en helpen bij de implementatie van AI-systemen. Dit zal helpen met het creëren van een cultuur waar medewerkers zich eigenaar voelen van de AI-systemen.

2. Eerlijkheid

  • Zorg voor een gevarieerde en representatieve dataset die de diversiteit van de samenleving weerspiegelt om vooringenomenheid te voorkomen.
  • Betrek verschillende stakeholders bij de implementatie van het AI-systeem om perspectieven te verzamelen en ervoor te zorgen dat alle standpunten worden gehoord.
  • Monitor AI-systemen regelmatig. Dit betekent het controleren van uitkomsten van het AI-systeem en aanpassen indien nodig zodat er geen vooringenomenheid optreedt.

3. Duurzaamheid

  • Bouw ESG-doelen direct in de ontwikkeling van het AI-systeem. Beperk bijvoorbeeld de hoeveelheid energie die het systeem verbruikt of verminder het gebruik van bepaalde materialen die de gezondheid van mensen en het milieu kunnen schaden.
  • Houd workshops tijdens de ontwerp- en implementatiefase van het AI-systeem om te zorgen dat ESG-doelen worden geborgd. Betrek belanghebbenden bij deze workshops die kunnen bijdragen aan de ESG-doelen, zoals milieu-experts, wetenschappers of innovatieve bedrijven.
  • Monitor de prestaties van het AI-systeem en evalueer de impact op ESG-doelen. Zorg ervoor dat elk aspect van het AI-systeem kan worden bekeken en dat alle winsten en verliezen bekend zijn.

4. Transparantie

  • Maak de informatie over het AI-systeem gemakkelijk toegankelijk voor zowel eindgebruikers als systeemontwerpers. Dit kan bijvoorbeeld worden bereikt door middel van gebruiksaanwijzingen, video's en interactieve online platformen.
  • Bied training en opleiding aan eindgebruikers en ontwerpers, zodat zij het AI-systeem kunnen begrijpen en correct kunnen toepassen. Dit kan helpen om fouten en misbruik te voorkomen.

5. Betrouwbaarheid

  • Zorg voor een veilige architectuur van het AI-systeem om de veiligheid te borgen. Dit kan onder meer de implementatie van encryptie, beveiligde toegang tot het netwerk, meervoudige authenticatie, firewalls, en het gebruik van VPN's zijn.
  • Beperk de toegang tot het AI-systeem en de gegevens daarvan tot alleen gemachtigde gebruikers of apparaten. Dit helpt om potentiële bedreigingen te verminderen.
  • Zorg voor regelmatige beveiligingsupdates van het AI-systeem en de bijbehorende software en firmware. Deze updates helpen om potentiële kwetsbaarheden te verminderen en nieuwe bedreigingen te voorkomen.
  • Zorg voor trainingsprogramma's om medewerkers bewust te maken van de bedreigingen en risico's van AI-systemen, met name die die betrekking hebben op cyberbeveiliging. Hierdoor kunnen zij bewuster en voorzichtiger omgaan met het AI-systeem en de gegevens.

6. Gegevensbescherming

  • Zorg ervoor dat het ontwerp, de implementatie en het gebruik van AI-systemen en hun output voldoen aan de relevante wet- en regelgeving. Voer een risicoanalyse uit om de mogelijke effecten en risico's voor privacy van persoonlijke gegevens op te sporen. Zorg ervoor dat de lokale en internationale wet- en regelgeving inzake gegevensbescherming worden opgenomen in de risicoanalyse.
  • Minimaliseer de hoeveelheid persoonlijke informatie die in het AI-systeem wordt ingevoerd. Zorg ervoor dat alle verzamelde persoonlijke informatie strikt noodzakelijk is voor het doel van het AI-systeem. Het ontwikkelen van een Privacy Statement als onderdeel van de privacy by design-van-benadering kan hierbij behulpzaam zijn.
  • Zorg voor een beveiligde data-opslag om de persoonlijke informatie te beschermen tegen risico's zoals hacks en gestolen gegevens. Gebruik encryptie en een veilige opslag om kwetsbaarheid van gegevens te verminderen.
  • Zorg voor transparantie inzake de verwerking van persoonlijke informatie. Dit betekent dat het duidelijk is hoe en waarom deze informatie wordt verzameld, hoe deze wordt verwerkt en gebruikt, en met wie deze informatie wordt gedeeld. Biedt de gebruiker volledige transparantie inzake hun gegevens.
  • Zorg voor trainingen over het belang van gegevensrechten en de verantwoordelijkheden van de organisatie met betrekking tot de verwerking en het gebruik van persoonlijke informatie.

7. Begrijpelijkheid

  • Zorg voor duidelijke en begrijpelijke besluitvorming. Wanneer een AI-systeem een beslissing neemt, moet het de criteria die tot die beslissing hebben geleid, helder en begrijpelijk uitleggen voor gebruikers.
  • Geef gebruikers of organisaties de keuze om geautomatiseerde beslissingen te nemen of niet. Als zij er geen gebruik van willen maken, moet er een alternatieve keuze zijn, die geen automatisering bevat.
  • Zorg ervoor dat de besluitvormingscriteria van het AI-systeem gecontroleerd en gevalideerd kunnen worden door menselijke operators. Dit impliceert dat de criteria van het AI-systeem bekendgemaakt en gecontroleerd kunnen worden bij gebruik.
     

Klaar voor de toekomst met Responsible AI?

Met het EY Responsible AI-framework maken we het mogelijk om het volledige potentieel van AI te benutten. Dit doen we door het blootleggen van kwetsbaarheden en risico’s waarbij ethiek een centrale rol speelt. Tenslotte draait het bij Responsible AI om het kweken van vertrouwen. Door het volgen van onze zeven aandachtspunten kunnen organisaties niet alleen de risico’s minimaliseren, maar ook de deur open zetten voor innovatie. De mogelijkheden van AI zijn eindeloos, zolang we er slim mee omgaan.

Samenvatting

Responsible AI en de AI wetgeving worden vaak gezien als blokkerende factoren. Dat is nergens voor nodig. Organisaties hoeven niet in te leveren op innovatie als ze de security, privacy en de ethische en governance aspecten goed inregelen in het design.

Over dit artikel

Door Bernadette Wesdorp

EY Nederland Director, Financial Services Privacy Leader & Trusted AI Leader

Leider op het gebied van privacy voor de financiële dienstverleningssector en trusted AI in Nederland. Moeder van twee kinderen. Voormalig professioneel hockeyster. Houdt van hardlopen en zwemmen.

Related topics AI