4 minutters lesing 9 mai 2023
Menneskehoder fylt med teknologi

AI Act i et nøtteskall – Hvordan vil EU regulere kunstig intelligens?

Av Mads Ribe

Associate Partner, Advokat, Law, EY Norge

Forretningsjuridisk- og teknologiadvokat. Aktiv på den norske start-up scenen. Tenker utenfor boksen og multidisiplinært for å finne løsninger.

4 minutters lesing 9 mai 2023
Relaterte temaer Jus Blockchain Cybersecurity Skatt

EU har arbeidet i flere år med å få på plass regulering av kunstig intelligens – innen nokså kort tid forventes AI Act å bli vedtatt.

Oppsummert

  • AI Act forventes vedtatt i løpet av 2023
  • Setter grenser for AI innenfor kategoriene uakseptabel, høy, begrenset og minimal risiko
  • Næringsdrivende som benytter AI og oppholder seg i eller retter seg mot EU/EØS-land, risikerer bøter inntil 6% av global omsetning eller 30 000 000 € ved brudd på reglene

Hva er formålet med AI Act?

Trygg utvikling av AI uten å begrense innovasjon

EU ønsker å sette rammene for en trygg utvikling av AI som skaper tillit, sikkerhet og ivaretar grunnleggende rettigheter, uten at det skal begrense innovasjon. Dette gjøres med en risikobasert tilnærming, der det blir strengere krav desto større risikoen er. Er det lav risiko, stilles det få eller ingen krav. Dette for å ikke sette større begrensninger enn nødvendig av hensyn til innovasjon og utvikling. 

Hva regulerer AI Act?

Et risikobasert rammeverk til etterfølge 
 
EU søker å gjenta GDPR-suksessen med å sette klare rammer utvikling og bruk av ny teknologi til global etterfølgelse. Reglene vil påvirke næringsliv direkte, og forbrukere indirekte. Med AI Act blir forskjellige systemer som bruker AI kategorisert i fire risiko- kategorier. Kategoriene gjelder AI systemer som utgjør: 

  1. Uakseptabel risiko: Risiko for grunnleggende verdier
  2. Høy risiko: Risiko for mennesker og samfunn
  3. Begrenset risiko: Risikoen at mennesker ikke forstår at de samhandler med AI
  4. Minimal risiko: Så lav risiko at det ikke settes noen grenser

Pliktene innenfor risikokategoriene går fra totalt forbud, ulike kvalitetssikringsplikter til informasjonsplikter. For å oppfylle informasjonsplikten vil det komme en egen CE-markering. Aktører som ikke følger pliktene innenfor sin risikokategori, kan risikere bøter inntil 6% av omsetningen. Bøtesatsen forventes å være forholdsmessig lavere avhengig av risikokategori.

Hva kan EY bistå med?

  • Sette opp trygge rammer for utvikling og bruk av AI, i tråd med regulatoriske og etiske rammeverk.
  • Vurdere klassifisering av ditt AI-system, og gi innsikt i hvilket plikter som kan gjelde for deg
  • Sette opp rutiner for å ivareta kommende forpliktelser
  • Foredrag og opplæring

Sammendrag

AI Act forventes å bli vedtatt i 2023. Denne pålegger næringsdrivende plikter avhengig av hvor stor risiko den kunstige intelligensen medfører. Ved uakesptabel risiko vil AI-systemer være forbudt, mens det vil pålegges strenge krav og høye administrasjonskostnader for dem som oppererer med høy risiko AI. Mest praktisk er likevel AI med begrenset til minimal risiko, hvor det i verste tilfelle vil stilles krav til informasjon om at AI er benyttet.

Ved brudd kan norske aktører forvente høye bøtesatser – enda høyere enn for GDPR. Bøtesatsene vil avhenge av hvilken risikokategori AI-systemet faller innenfor.

Om denne artikkelen

Av Mads Ribe

Associate Partner, Advokat, Law, EY Norge

Forretningsjuridisk- og teknologiadvokat. Aktiv på den norske start-up scenen. Tenker utenfor boksen og multidisiplinært for å finne løsninger.