Kvinde arbejder ved pc i mørkt lokale

AI-forklarlighed og behovet for dokumentation

AI-forklarlighed er kritisk i banksektoren, hvor dokumentation og tillid er afgørende for beslutningsprocesser.


Opsummering
  • Forklarlighed er mere end komfort; det er nødvendigt for at opfylde regulatoriske krav og sikre ansvarlig AI-brug.
  • AI-modeller skal kunne dokumenteres og revideres, ikke kun give plausible forklaringer.
  • Banker bør integrere forklarlighed i designprocessen for at opbygge tillid og sikre forståelse blandt alle interessenter.

Det starter med en chatbot.

En kunde ringer ind, frustreret over en afvist ansøgning. Den AI-drevne kundeserviceassistent forklarer venligt, at beslutningen skyldes ”en afvigelse i kreditprofilen”. Kunden beder om uddybning. Chatbotten tilbyder en mere ’menneskelig’ forklaring: “Du har haft et højere end normalt kreditkortforbrug over de seneste måneder, hvilket øger bankens vurderede risiko.”

Det lyder rimeligt. Problemet er bare, at det ikke er rigtigt. Det er en plausibel forklaring, ikke en sand forklaring. Modellen, der traf beslutningen, vægtede faktisk et helt andet forhold højere. Men chatbotten er trænet til at lyde overbevisende – ikke til at dokumentere compliance.

Hvorfor forklarlighed er mere end komfort

Forklarlighed (explainability) er blevet en ny valuta i AI – særligt i finanssektoren. Alle taler om behovet for forklarlighed, men få stiller spørgsmålet: Forklarlighed for hvem?

Forskningen (Zhao et al., 2024) skelner mellem lokal og global forklaring, mellem feature attribution og surrogatmodeller. Men i praksis ender vi ofte med farverige dashboards, der fortæller os, hvad vi gerne vil høre – ikke hvad vi har brug for at vide.

Generativ AI komplicerer billedet yderligere. Ifølge Fahland et al. (2025) er Large Language Models (LLM) ikke bare svære at forklare – de er forklaringer. De genererer sprog, der skaber mening for brugeren, men det er ikke det samme som forklarlighed. Det er situationsbevidst forklarlighed – tilpasset konteksten, ikke nødvendigvis faktuelt korrekt.

Når compliance kræver mere end forståelse

I en verden hvor beslutninger og anbefalinger truffet af AI har stor indflydelse på mennesker, har AI også vundet indpas i banksektoren. Men i en bank er det ikke nok, at noget “giver mening”. Det skal kunne spores, forklares, revideres. Finanstilsynet stiller krav til dokumentation, rimelighed og versionering – ikke storytelling.

Relateret artikel

AI og regulering i finanssektoren: Hvorfor GenAI kræver ny governance

Udforsk hvordan generativ AI kræver ny governance i finanssektoren for at sikre ansvarlighed og innovation.

    Derfor er det kritisk, at banker ikke forveksler forklaring med overtalelse. Forklarlighed skal kunne besvare både kundens spørgsmål og revisors spørgsmål og måske endda spørgsmål fra en teknisk profil fra Finanstilsynet. Forklarlighed skal altså være gældende overfor mange forskellige typer stakeholders.

     

    EY’s tilgang: Forklaring er ikke UX – det er governance

    I EY bygger vi forklarlighed ind fra starten. Ikke som et lag ovenpå, men som en del af modeldesignet. Vores tilgang til Responsible AI hviler på syv principper:

    1. Transparens
    2. Forklarlighed
    3. Rimelighed og inklusion
    4. Robusthed og sikkerhed
    5. Databeskyttelse
    6. Menneskelig kontrol
    7. Ansvar og governance

    Forklarlighed handler ikke kun om at vise, men om at validere. Kan modellen genskabes? Kan beslutningen dokumenteres? Hvem forstår forklaringen – og hvem godkender den?

     

    Tre ting banker bør gøre nu:

    1. Kræv forklarlighed-ved-design. Ikke som en eftertanke, men som et regulatorisk krav.
    2. Test forklaringer med forretningen og risiko sammen. Hvis ingen forstår forklaringen – er det så en forklaring?
    3. Undgå AI, der udelukkende skal virke overbevisende. Forklaringer skal kunne stå i retten – og i revisors dokumentgennemgang.


    Forklarlighed er ikke et spørgsmål om komfort. Det er et spørgsmål om tillid. Og i bankverdenen er tillid ikke kun noget, man føler. Det er noget, man kan dokumentere.



    Sammendrag 

    En chatbot kan give plausible, men ikke nødvendigvis korrekte forklaringer, hvilket understreger vigtigheden af at skelne mellem forklaring (explainability) og overtalelse. Banker skal sikre, at forklaringer er valide og kan dokumenteres for at opfylde regulatoriske krav. EY anbefaler, at forklarlighed integreres fra starten, testes i praksis, og at AI-løsninger ikke kun er designet til at være overbevisende, men også til at opbygge tillid gennem dokumentation.

    Om denne artikel

    Related articles