København, 28. februar 2019

Hvordan får AI styr på etikken?

  • Share


Q&A med Henrik Axelsen, Partner i EY

Kunstig intelligens (AI) rummer et enormt potentiale og vil skabe omfattende forandringer for virksomheder og mennesker. Vi kan se mange muligheder, men også teknologiens potentielle skyggeside. Hvordan får vi tillid til fremtidens kunstigt intelligente løsninger?

Q: Hvad kendetegner de AI-løsninger, vi ser i dag?

De større danske virksomheder er ganske godt med, når vi sammenligner på tværs af Europa. Det viser rapporten Artificial Intelligence in Europe, der er udarbejdet af EY på vegne af Microsoft sidste år. Virksomhederne anvender AI i produktionen, i R&D eller i marketing.

I en række år har virksomhederne brugt automatiseringsløsninger, og de anvender Robot Process Automation i dele af administrationen, og det er på nogle af de områder, hvor de går et skridt videre mod egentlig AI. På det punkt ser vi, at nogle tiltag i dag er relativt simple, meget er endnu i pilotfasen, og andet er endnu kun ideer. Det er helt sikkert, at udviklingen går stærkt, og der vil komme endnu mere fart på i de kommende år.

Q: Skal vi være bekymrede for AI?

EU-Kommissionen nedsatte en ekspertgruppe, der i midten af december 2018 udgav et udkast til etiske retningslinjer for kunstig intelligens i form af 10 principper. De forventer at have en endelig version klar i marts 2019. Baggrunden for ekspertgruppen er en ambition om, at Europa skal være globalt førende inden for kunstig intelligens, men også en erkendelse af, at det ikke kun handler om teknologi, men også sikkerhed og etik.

Når vi ser på AI i dag, er det tydeligt, at der kan opstå fejl, og utilsigtede konsekvenser kan blive alvorlige. Teknologi og systemer kan fejle, de kan bevidst eller ubevidst være mangelfulde og unøjagtige, og de kan være påvirkelige for menneskelig bias. Der er risici forbundet med et system, der er lærende, tænkende og får beslutningskompetence.

Q: Er der situationer, hvor det er gået galt med AI?

Vi har hørt historier om selvkørende biler, der er kørt over for rødt, chatbotten, der var programmeret til at lære af andre brugere og en dag delte racistiske kommentarer, et rekrutteringsprogram, der skulle screene kandidater og finde de bedste ansøgere, men som udviklede en bias, der diskriminerede kvinder. Sådanne eksempler viser, hvordan tillid og AI skal hænge sammen.

Helt grundlæggende viser de også, at vi skal være meget opmærksomme på, at vi forstår, at AI kan udvikle en uhensigtsmæssig bias – særligt når det handler om at håndtere mere end data, men også handler om etik, følelser og sociale normer.

Q: Er der behov for en særlig AI-etik?

Vores drøftelser med danske virksomheder og undersøgelsen af danske virksomheders håndtering af AI viser, at mange stadig er på eksperimentalstadiet. Men i takt med at antallet af konkrete cases stiger, og virksomhederne bliver dygtigere til at mestre mere vanskelige former for AI, så syntes jeg, at vi mangler konkrete ledelsesmodeller for etisk korrekt brug af sådan ny teknologi.

Vi skal lade os begejstre over teknologien, men ikke give køb på etikken. Artificial Intelligence (AI) kommer ikke uden dilemmaer. It-systemer mestrer enorme mængder af data, men sociale normer, værdier og etik stiller andre krav til erfaring, interaktion og refleksion. Det er netop der, det helt store potentiale ligger.

Q: Hvordan skaber vi tillid til AI?

Vi taler om ’trust by design’, det vil sige, at tillid skal være et led i selve idéen, i udviklingen og i brugen af AI løsninger. Der er særligt tre faktorer, vi skal have blik for:

Purposeful Design: Vi skal tænke på formålet og designe og bygge systemer med rette balance mellem automatiske og autonome egenskaber, som fremmer klart definerede forretningsmål, med blik for kontekst, for begrænsninger, for parathed hos brugere og teknologi samt risici.

Agile Governance: Vi skal tænke i governance. Der vil være sociale, etiske, regulatoriske eller omdømmemæssige problemstillinger, som kan have betydning for monitorering og tilsyn med systemets arkitektur, dets anvendelse, test og udvikling samt verificering og brug af data.

Vigilant Supervision: Endelig skal vi løbende justere, overvåge og kontrollere systemer for at sikre pålidelig og stabil drift. Det handler om at tjekke og identificere eventuel bias, foretage tilpasninger og sørge for transparens i forhold til brugeroplevelsen.

Kunstig intelligens skal udvikles med en god portion sund fornuft. Vi skal sikre, at fremtidens AI kan få vores hverdag og vores verden til at fungere bedre.


Trusted AI Seminar

EY afholder seminar om ’Trusted AI’ den 12. marts 2019 i København. Her vil Cathy Cobey, EY’s Global Trusted AI Advisory Leader give en præsentation med titlen “How do you teach AI the value of trust” og uddybe, hvorfor digital tillid er så afgørende. Derefter deler vi erfaringer og perspektiver om tillid og AI.