Kunstig intelligens (AI) har potentiale til at revolutionere den finansielle sektor, men på trods af store investeringer og en hastig udvikling af prototyper, har sektoren endnu ikke realiseret de forventede besparelser og værdiskabelse. Mens store konsulenthuse og tech-virksomheder udvikler AI-løsninger, er det reelle problem, at modellerne sjældent når produktionsstadiet – eller når de gør, sker det ofte uden tilstrækkelig validering og compliance.
Status: AI’s position i den finansielle sektor
Mange i den finansielle sektor eksperimenterer med AI-modeller til dokumenthåndtering, kreditvurdering, markedsanalyse og risikostyring, men den store udfordring er at bringe modellerne fra PoC (Proof of Concept) til fuldt produktionsniveau. Udfordringerne skyldes:
- Regulatoriske krav: AI-modeller skal både leve op til velkendte reguleringer indenfor privacy og cyber security og ny AI regulering, som fx forholder sig til forklarlighed og fairness.
- Black-box problematik: De fleste AI-modeller er komplekse og mangler transparens, hvilket gør dem svære at godkende med eksisterende valideringssetup.
- Legacy-systemer: Mange banker opererer på ældre systemer, der ikke let integrerer AI-løsninger.
Hvorfor risk management er afgørende
Den finansielle sektor er vant til at validere traditionelle modeller for kreditrisiko og kapitalplanlægning, men AI-modeller stiller nye krav:
- Definition af AI: Der lægger et stort arbejde i at identificere hvilke af både eksisterende og kommende modeller er AI.
- Governance: AI passer ikke naturligt ind i en enkelt afdeling. Derfor er det kompliceret at få etableret roller og ansvar.
- Konceptuel soliditet: Modellen skal være baseret på en sund metodologi, hvor datagrundlag, træningsmetoder og antagelser vurderes nøje.
- Performance og stabilitet: Modellen skal kunne performe pålideligt over tid, også under stressscenarier.
- Compliance: AI-modeller skal kunne forklares, dokumenteres og auditeres i overensstemmelse med eksisterende og kommende reguleringer.
EY’s rolle
EY har årtiers erfaring med AI risk management i den finansielle sektor og kan hjælpe med:
- AI-governance frameworks – sike at virksomheden står på et solidt fundament, når det kommer til arbejdet med AI.
- Valideringsmetoder – test og dokumentation af modellernes robusthed og forklarlighed.
- Integration i legacy-systemer – hvordan AI kan implementeres i eksisterende infrastrukturer uden at kompromittere compliance.
Konsekvenser ved manglende risk management
Organisationer, der implementerer AI uden korrekt governance og validering, løber en række risici:
- Regulatoriske sanktioner: Manglende compliance kan føre til bøder og restriktioner.
- Operationel risiko: Ukontrollerede AI-modeller kan føre til fejl i output fx fejl i kreditvurderinger og markedsanalyser.
- Omdømme risiko: Hvis en AI-model viser sig at være fx biased eller fejlbehæftet, kan det skade organisationens troværdighed.