EY verwijst naar de wereldwijde organisatie en kan verwijzen naar een of meer van de lidfirma's van Ernst & Young Global Limited, die elk een afzonderlijke juridische entiteit zijn. Ernst & Young Global Limited, een Britse vennootschap met beperkte aansprakelijkheid, verleent geen diensten aan cliënten.
Hoe EY kan helpen
-
Voldoe aan de EU AI Act. EY's EU AI Act Maturity Assessment helpt bij het evalueren van AI-systemen en het implementeren van Responsible AI.
Lees meer
Zes trends in kunstmatige intelligentie
Erkenning dat elk rechtsgebied een andere regelgevende aanpak heeft gekozen, is in overeenstemming met verschillende culturele normen en wetgevende contexten. Er zijn zes gebieden van samenhang die verenigd zijn onder het brede principe om de potentiële schade van AI te verminderen, terwijl het gebruik ervan voor het economische en sociale welzijn van burgers wordt mogelijk gemaakt. Deze gebieden van eenheid vormen een solide basis voor het opstellen van gedetailleerde regelgeving.
- Kernprincipes: De AI-regelgeving en richtlijnen die in overweging worden genomen, zijn in overeenstemming met de kernprincipes voor AI zoals gedefinieerd door de OESO en goedgekeurd door de G207. Deze omvatten respect voor mensenrechten, duurzaamheid, transparantie en sterk risicobeheer.
- Op risico gebaseerde aanpak: Deze rechtsgebieden kiezen voor een risicogebaseerde benadering van AI-regelgeving. Dat betekent dat ze hun AI-regelgeving afstemmen op de waargenomen risico's van AI voor kernwaarden als privacy, non-discriminatie, transparantie en veiligheid. Dit "op maat maken" volgt het principe dat nalevingsverplichtingen in verhouding moeten staan tot het risiconiveau (laag risico betekent geen of zeer weinig verplichtingen; hoge risico's betekenen aanzienlijke en strenge verplichtingen).
- Sector-onafhankelijk en sectorspecifiek: Vanwege de verschillende toepassingsgevallen van AI richten sommige rechtsgebieden zich naast sector-onafhankelijke regelgeving ook op de noodzaak van sectorspecifieke regels.
- Beleidsafstemming: Rechtsgebieden voeren AI-gerelateerde wetgeving door binnen de context van andere digitale beleidsprioriteiten, zoals cybersecurity, gegevensprivacy en bescherming van intellectueel eigendom, waarbij de EU de meest uitgebreide aanpak hanteert.
- Samenwerking met de private sector: Veel van deze rechtsgebieden maken gebruik van regelgevende sandboxes als een middel voor de private sector om samen te werken met beleidsmakers bij het ontwikkelen van regels die het kernobjectief van het bevorderen van veilige en ethische AI ondersteunen. Daarnaast wordt er gekeken naar de implicaties van innovaties met een hoger risico die verband houden met AI, waarbij nauwere toezicht mogelijk gepast kan zijn.
- Internationale samenwerking: Gedreven door een gedeelde zorg over de fundamentele onzekerheden met betrekking tot de risico's voor veiligheid en beveiliging die krachtige nieuwe generatieve en algemene AI-systemen met zich meebrengen, streven landen naar internationale samenwerking om deze risico's te begrijpen en aan te pakken.
Verdere overwegingen over AI voor beleidsmakers
Andere factoren waarmee rekening moet worden gehouden bij de ontwikkeling van AI-beleid zijn onder andere:
- Zorgen dat regelgevers toegang hebben tot voldoende expertise op het gebied van de materie om deze beleidsmaatregelen succesvol te implementeren, te monitoren en af te dwingen.
- Zorgen voor beleidshelderheid, of de bedoeling van wetgeving nu is om de risico's die voortkomen uit de technologie zelf te reguleren (zoals bijvoorbeeld natuurlijke taalverwerking of gezichtsherkenning), of uit de manier waarop de AI-technologie wordt gebruikt (bijvoorbeeld de toepassing van AI in wervingsprocessen), of beide.
- Onderzoeken in hoeverre beleid en procedures voor risicobeheer, evenals de verantwoordelijkheid voor naleving, van toepassing moeten zijn op externe leveranciers die AI-gerelateerde producten en diensten leveren.
Daarnaast zouden beleidsmakers, voor zover mogelijk, zich moeten bezighouden met multilaterale processen om AI-regels tussen rechtsgebieden interoperabel en vergelijkbaar te maken, om de risico's van regelgevingsarbitrage te minimaliseren. Deze risico's zijn bijzonder significant wanneer het gaat om regels die het gebruik van een transnationale technologie zoals AI reguleren.