Hvordan kan forudseenhed om risici føre til indsigt i AI?

Af

Cathy Cobey

EY Global Trusted AI Advisory Leader

Thought leader in digital trust. Advocate of women in technology. Lover of good food. Film festival enthusiast. Avid learner. Parent.

6 minutters læsetid 21 jan. 2020

Når der kun skal én fejl til — eller hvad der opfattes som en fejl — før en bruger mister tilliden til AI, hvordan kan man så gøre sig fortjent til og fastholde brugernes tillid?

Enhver udfordring i erhvervslivet udgør en mulighed for AI. Organisationer er imidlertid tilbageholdende med at gøre brug af disse muligheder pga. mistillid til AI – og derfor er de forsigtige med, hvor den anvendes.

Tillid er det fundament, hvorpå organisationer kan opbygge interessenternes tiltro og aktive deltagelse i AI-systemer. Men i denne tidsalder med information, der er omgående tilgængelig, kan fejltagelser koste dyrt, og det er sværere at få en chance til. Organisationer, som ønsker at lykkes i en verden med AI, må være indstillet på at skulle optimere risici gennem hele AI's livscyklus. De gør dette ved at øge deres fokus på risiko som en kraftfuld, dynamisk og fremtidsorienteret funktion, der skaber tillid.

At skabe tillid til AI

AI medfører nye risici og konsekvenser, som historisk set har ligget inden for menneskelig beslutningstagning og ikke har haft noget at gøre med udviklingen af teknologi. 

Med AI's risici og konsekvenser af både teknisk, etisk og social art er der behov for en ny metode til at identificere, måle og reagere på risiciene ved AI; en metode, som hviler på det solide fundament af eksisterende strukturer til kontrol og styring, men som også introducerer nye mekanismer til at håndtere de unikke risici ved AI.

Risici ved AI

Håndtering af risiciene

At styre risiciene ved AI handler om mere end blot at forhindre negative konsekvenser eller konflikter i forbindelse med omdømme, love og bestemmelser. Det handler også om at blive betraget som troværdig. Med en offentlig diskurs om AI, der er skævvredet af overdreven fokus på dens risici, kræver det tid og aktiv dialog med interessenterne at skabe tillid til AI-systemer. 

At skabe tillid til AI kræver en koordineret indsats. I EY ser vi, at tillid består af fem søjler:

  1. Støtte – forstår interessenterne fordelene ved AI, og hvordan styrker dette de produkter og tjenester, de modtager? 
  2. Færdigheder – styrker og forbedrer AI en organisations brand-, produkt-, service- og interessentoplevelse?
  3. Konsekvens – er brugen af AI i overensstemmelse med organisationens erklærede formål, og støtter det opnåelsen af dette over tid?
  4. Åbenhed – har organisationen effektivt kommunikeret med og gået i dialog med sine kerneinteressenter om brugen af AI og de potentielle fordele og risici derved?
  5. Integritet – er organisationens tilgang til designet og brugen af troværdig AI i overensstemmelse med interessenternes forventninger?

Når de fem tillidssøjler skal etableres, skal det bærende element, der forbinder dem, være ansvarlighed.

Ansvarlighed er det fundament, som tillid bygger på, og det er det vendepunkt, hvor en organisation omsætter intentioner til adfærd. Uanset graden af autonomi i et AI-system skal det ultimative ansvar for en algoritme være tilknyttet en person eller en organisation. Ved at integrere risikohåndtering i sine AI-designfacilitatorer og AI-overvågningsmekanismer kan organisationer vise deres ansvarlighed og drages til ansvar for forudsigelser af AI-systemer, beslutninger og adfærd.

Ledende AI-organisationer bygger Trust by Design ind i AI-systemer fra starten for at hjælpe andre organisationer med at bevæge sig fra 'hvad kan gå galt' til 'hvad skal gå godt'?

Med en endnu ikke færdigudviklet forståelse af, hvordan AI arbejder, og af, hvornår og hvordan risici kan udvikle sig, anses mange AI-systemer automatisk for at være i højrisikogruppen og omgås dermed med forsigtighed. For at modvirke denne reaktion bliver forskellige værktøjer og platforme udviklet for at hjælpe organisationer med at kvantificere konsekvenserne og troværdigheden af deres AI-systemer.

Kvantificering af risiciene ved AI

Hvis AI skal realisere sit fulde potentiale, har organisationer brug for at kunne forudsige og måle forhold, som forstørrer risiciene og underminerer tilliden.

At forstå risikofaktorerne ved AI kræver, at man betragter et bredt spektrum af medvirkende faktorer, herunder AI's tekniske design, forventninger hos interessenter og kontrolmodenhed. Hver af disse kan i deres design og anvendelse have betydning for risikoniveauet i et AI-system. Udvikling af en forståelse af risikofaktorerne for et AI-system er en kompleks proces. Det kræver nøje overvejelse af potentielle forventninger hos interessenter gennem hele AI-systemets livscyklus.    

I udviklingen af en troværdig AI-platform er der tre vigtige komponenter til håndtering af risiciene:

  • Teknisk risiko  — evaluerer de underliggende teknologier, det tekniske driftsmiljø og graden af autonomi.
  • Forventninger hos interessenter — en vurdering af AI-agentens målsætninger og de økonomiske, emotionelle og fysiske konsekvenser for eksterne og interne brugere samt risici relateret til omdømme, love og bestemmelser.
  • Effektiv styring – Dette er en vurdering af eksisterende kontrolredskaber til at afbøde risiciene ved AI samt effektiviteten deraf.

Tilsammen udgør disse komponenter en sammenhængende metode til at evaluere, kvantificere og overvåge konsekvenserne og troværdigheden af AI. En troværdig AI-platform bruger interaktive, webbaserede skematiserings- og vurderingsredskaber til at udarbejde en risikoprofil for et AI-system og dernæst en avanceret analytisk model til at konvertere brugerresponsen til en sammensat score bestående af teknisk risiko, forventninger hos interessenterne og den effektive styring af et AI-system. 

Denne type platform kan anvendes af organisationer til at udvikle en risikokvantificering i forbindelse med et robust desk-top design and udfordre funktionaliteten i starten af deres AI-projekt. Forankring af tillid til designet af AI-systemer lige fra starten vil resultere i en mere effektiv AI-uddannelse og større brugertillid og -godkendelse.

At reagere på risiciene ved AI

At reagere på risiciene ved AI kræver brug af nye, innovative styringsmetoder, som kan holde trit med AI's hurtige adaptive læringsteknikker. 

I udviklingen af en strategi til at afbøde risiciene er det vigtigt for en organisation at anvende en integreret metode, som tager højde for både målene med et AI-system, de potentielle konsekvenser for interessenterne (positive såvel som negative), den tekniske realisering af projektet samt modenheden af de relevante styringsmekanismer og AI-udbyderens risikotolerance.

Med AI, som fortsat kan lære og justere sine metoder, efter det er sat i produktion, er det vigtigt, at der er iværksat solide overvågningsmekanismer til at etablere tillid. Organisationer skal være i stand til løbende at evaluere, om et AI-system fungerer på et acceptabelt niveau samt identificere, når en ny risiko er ved at dukke op.

At skabe og vedligeholde tillid til AI kræver investeringer i innovative teknikker til risikohåndtering, samt at man går videre end en forståelse af de potentielle risici for at udvikle et dyberegående system til risikomåling.

At anvende tillid til AI som en konkurrencefordel

AI er allerede begyndt at ændre på vores måde at arbejde og leve på. Organisationer, som kommer til at trives i en verden med AI, er dem, som kan optimere både data og feedback-kredsløb, så de kan tiltrække flere brugere og accelerere deres integration af AI.

Ved at handle loyalt i udviklingen af et robust system til håndtering af risiciene ved AI, og ved at involvere brugerne i deres AI-proces, vil organisationer kunne komme langt i arbejdet med at etablere brugertillid som en konkurrencefordel og omsætte forudsigelser af risiko til indsigt i AI.

Sammendrag

Organisationer må sætte tilliden i centrum af deres AI-systemer og anvende forudsigelser af risici til at accelerere deres adgang til indsigt i AI. Avancerede AI-værktøjer kan assistere en organisation i dens AI-proces ved at give indsigt i kilderne og årsagen til risici samt vejlede et AI-designteam i udviklingen af målrettede strategier til at afbøde risici.

Om denne artikel

Af

Cathy Cobey

EY Global Trusted AI Advisory Leader

Thought leader in digital trust. Advocate of women in technology. Lover of good food. Film festival enthusiast. Avid learner. Parent.