Den 28 september 2022 publicerade den Europeiska kommissionen ett förslag till ett direktiv för att införa civilrättsliga ansvarighetsregler för artificiell intelligens (AI-ansvarsdirektivet). EU kommissionen har meddelat i sitt arbetsprogram för 2025 att förslaget dras tillbaka.
AI-ansvarsdirektivet avsåg att komplettera och modernisera EU:s ansvarighetsram och införa nya regler för skador orsakade av AI-system. Syftet med direktivet var att säkerställa att personer som skadas av AI-system uppnår samma skyddsnivå som personer som skadas av andra teknologier inom EU. Bland annat föreslogs en motbevisbar presumtion för kausalitet för att underlätta bevisbördan för offer att fastställa skador orsakade av AI-system, men även möjligheter att beordra utlämnande av bevis om hög-risk AI system misstänkts ha orsakat skada.
Trots att kommissionen identifierade stora utmaningar som artificiell intelligens medför i förhållande till nuvarande ansvarsregler, beslutades det att förslaget om AI-ansvarsdirektivet skulle dras tillbaka. Motiveringen som följer av kommissionens arbetsprogram för 2025 är att ingen överenskommelse nåddes, och att kommissionen kommer att överväga om ett nytt förslag bör lägga fram eller ett annat tillvägagångssätt bör väljas.
Direktivet har en nära koppling till EU:s förordning om artificiell intelligens (AI-förordningen). Tanken var att direktivet skulle basera sig på och komplettera AI-förordningen och använda sig av samma terminologi. Tillsammans med direktivet om produktansvar implementerar AI-förordningen omfattande skyldigheter kopplade till AI-system och ansvarsregler för defekta AI-produkter och programvara. Flera utmaningar med att få AI-ansvarsdirektivet att passa in i det regulatoriska ramverket beskrivs i Europaparlamentets utredningstjänsts (EPRS) konsekvensanalys om direktivet.
Frågan splittrar EU-parlamentariker som har olika åsikter om det finns behov av att ytterligare reglera det civilrättsliga ansvaret för AI-system. Vissa menar att ansvarsfrågan hanteras av redan existerande lagstiftning medan andra menar att det finns luckor i lagstiftningen. Produktansvarsdirektivet täcker inte det breda spektrumet av AI-specifika risker som till exempel frågor om diskriminering och intrång på personlighetsrättigheter vid generativ AI enligt EPRS konsekvensanalys. Problematik kan uppstå med Large Language Models (LLM) såsom ChatGPT och Claude.ai då produktansvarslagstiftningen inte tillämpas på dessa.
Ansvar för AI är en fråga inom EU som står inför ett vägskäl. Det återstår att se vilken strategi som kommissionen kommer att inta, och om alternativa lagförslag kommer att läggas fram.
EY Law hjälper företag med juridiska frågor och utmaningar kopplade till AI och regelefterlevnad. Tveka inte att höra av er till oss vid frågor eller funderingar.
Författare:
- Anna Byström, Partner, +46 73 441 71 59
- Ellen Fahlander, Associate, +46 70 450 69 56