Hvordan kan risikoprognoser føre til AI-innsikt?

Av

Cathy Cobey

EY Global Trusted AI Advisory Leader

Thought leader in digital trust. Advocate of women in technology. Lover of good food. Film festival enthusiast. Avid learner. Parent.

6 minutters lesing 24 jun 2020
Relaterte temaer Tillit

Når det bare trengs én feil – eller en oppfatning av en feil – for at en bruker skal slutte å stole på AI, hvordan kan du oppnå og beholde brukernes tillit?

Enhver utfordring i virksomheten er en mulighet for AI.Organisasjoner holder imidlertid igjen med å utnytte disse mulighetene på grunn av mistillit til AI – og er derfor forsiktige og selektive med hvor den brukes.

Tillit er grunnlaget for at interessentene skal føle seg trygge på, og involvere seg aktivt med organisasjonens AI-systemer. I disse dager med hvor informasjon er tilgjengelig på et øyeblikk, kan feil imidlertid være kostbare, og det er vanskeligere å få en ny sjanse. Organisasjoner som ønsker å lykkes i en AI-verden, må inkorporere et tankesett for risikooptimalisering på tvers av AI-livssyklusen. De gjør dette ved å heve risikoen fra en responsiv funksjon til en effektiv, dynamisk og fremtidsrettet mulighet for å bygge tillit.

Bygge tillit til AI

AI introduserer nye risikoer og konsekvenser som historisk sett har vært forbeholdt menneskelig beslutningstaking, ikke teknologiutvikling. 

Med risikoene ved og konsekvensene av AI som spenner over tekniske, etiske og sosiale områder, er det behov for et nytt rammeverk for å identifisere, måle og reagere på risikoene ved AI. Denne må være basert på et solid grunnlag av eksisterende styrings- og kontrollstrukturer, men introduserer også nye mekanismer for å håndtere de unike risikoene ved AI.

Risikoer ved AI

Håndtere risikoene

Å håndtere risikoene ved AI handler om mer enn å forhindre omdømmemessige, juridiske og lovgivningsmessige effekter. Det handler også om å bli ansett som pålitelig. Siden den offentlige diskusjonen om AI i stor grad handler om risikoene ved teknologien, vil det ta tid og aktiv dialog med interessenter for å få bygget opp tillit til AI-systemer.

Å bygge tillit til AI vil kreve en koordinert tilnærming. EY-teamet mener det finnes fem tillitssøyler:

  1. Fremsnakking – Forstår interessentene fordelene ved AI og hvordan det vil forbedre produktene og tjenestene de mottar? 
  2. Ekspertise – Forsterker og forbedrer AI en organisasjons merkevare-, produkt-, service- og interessentopplevelse?
  3. Konsekvent handling – Er AI-bruken i samsvar med en organisasjons uttalte formål og støtter den oppnåelsen av dette over tid?
  4. Åpenhet – Har organisasjonen effektivt kommunisert og gått i dialog med sine sentrale interessentgrupper om bruken av AI og potensielle fordeler og risikoer?
  5. Integritet – Er organisasjonens tilnærming til utforming og drift av tillitsvekkende AI i tråd med forventningene fra interessentene?

Når man skal etablere de fem stolpene av tillit, er det overordnede elementet som forbinder dem alle ansvarlighet.

Ansvarlighet er grunnlaget som tillit bygger på og er dreiepunktet der en organisasjon omdanner intensjoner til handling. Uavhengig av nivået på et AI-systems autonomi, må det endelige ansvaret for en algoritme ligge hos en person eller organisasjon. Ved å legge inn risikostyring hos tilretteleggere for design og overvåkningsmekanismer for AI, kan organisasjoner demonstrere sitt engasjement for ansvarlighet og aksept av å bli holdt ansvarlig for AI-systemers prognoser, beslutninger og atferd.

Ledende KI-organisasjoner inkorporerer "trust by design" for AI-systemer fra begynnelsen av for å hjelpe organisasjoner med å bevege seg fra "hva kan gå galt?" til "hva må gå riktig?"

Med en forståelse som fremdeles er under utvikling med hensyn til hvordan AI opererer, og når og hvordan risikoer kan utvikle seg, anses mange AI-systemer som høyrisikable av natur og bør benyttes med forsiktighet. For å motvirke denne responsen utvikles forskjellige verktøy og plattformer for å hjelpe organisasjoner med å kvantifisere effekten av og påliteligheten til AI-systemene.

Kvantifisere risikoene ved AI

Hvis AI skal nå sitt fulle potensial, må organisasjoner ha evnen til å forutsi og måle forhold som forsterker risiko og undergraver tillit.

Forståelse av driverne for risiko i forhold til AI krever overveielser i et bredt spekter av medvirkende faktorer, inkludert teknisk design, konsekvenser for interessenter og modenhet i kontrollmekanismer. Hver av disse kan, i design og drift, ha betydning for et AI-systems risikonivå. Å utvikle en forståelse av risikodriverne for et AI-system er et komplekst foretagende. Det krever nøye vurdering av potensielle konsekvenser for interessenter gjennom hele livssyklusen til AI-systemet.

Når du utvikler en tillitsvekkende AI-plattform, er det tre komponenter som er viktige for å håndtere risikoen ved et AI-system:

  • Teknisk risiko – Man evaluerer de underliggende teknologiene, det tekniske driftsmiljø og autonominivået.
  • Effekt for interessenter – Man vurderer målene og formålene for AI-agenten og den økonomiske, emosjonelle og fysiske effekten for eksterne og interne brukere, i tillegg til omdømmemessig, regulatorisk og juridisk risiko.
  • Kontrolleffektivitet – Man vurderer tilstedeværelsen og driftseffektiviteten til kontroller for å begrense risikoene ved AI.

Sammen gir disse en integrert tilnærming for å evaluere, kvantifisere og overvåke effekten og hvor tillitsvekkende AI-systemet er. En tillitsvekkende AI-plattform bruker interaktive, nettbaserte skjematiske og vurderingsverktøy for å bygge risikoprofilen til et AI-system, og deretter en avansert analytisk modell for å konvertere brukerresponsene til en sammensatt score som inkluderer teknisk risiko, konsekvenser for interessenters og kontrolleffektivitet for et AI-system.

Denne typen plattformer kan brukes av organisasjoner for å utvikle en risikokvantifisering i forbindelse med en robust designprosess hvor prosjektet utfordres på skrivebordsstadiet i begynnelsen av AI-prosjektet. Integrering av tillitskrav i utformingen av AI-systemer fra starten av vil resultere i mer effektiv AI-læring og høyere brukertillit og bruksvillighet.

Å reagere på risikoer ved AI

Å reagere på risikoene ved AI vil kreve bruk av ny, innovativ kontrollpraksis som kan holde tritt med AI-teknologiens hurtige, adaptive læringsteknikker. 

Når man utvikler en strategi for risikobegrensning er det viktig for en organisasjon å bruke en integrert tilnærming som vurderer formålene til AI-systemet, potensielle konsekvenser for interessenter (både positive og negative), teknisk gjennomførbarhet og modenhet på kontrollmekanismer og AI-operatørens risikotoleranse.

Med AI, som kan fortsette å lære og tilpasse beslutningsrammeverket etter at den er satt i produksjon, er det viktig at sterke overvåkningsmekanismer er på plass for å etablere tillit. Organisasjoner må kunne kontinuerlig evaluere om et AI-system opererer innenfor akseptable ytelsesnivåer og identifisere når det oppstår en ny risiko.

Å bygge og opprettholde tillit til AI krever investeringer i innovative risikostyringsteknikker og at man går utenpå en forståelse av potensielle risikoer for å utvikle et dypere risikomålingssystem.

Utnytte tillit til AI som et konkurransefortrinn

AI har allerede begynt en disrupsjon av måten vi jobber og lever på. Organisasjoner som lykkes i en AI-verden vil være de som kan optimalisere tilbakemeldingssløyfer for både data og tillit for å tiltrekke seg flere brukere og fremskynde at AI tas i bruk.

Gjennom å handle i god hensikt, utvikle et robust AI-risikostyringssystem og involvere brukere i AI-reisen deres, vil organisasjoner komme langt i å etablere brukertillit som en konkurransedyktig differensiator og omgjøre forutsigelse av risiko til AI-innsikt.

Sammendrag

Organisasjoner må sette tillit i sentrum i AI-systemene sine og utnytte forutsigelsen av risiko til å få fart på tilgangen til AI-innsikt. Avanserte AI-verktøy kan hjelpe en organisasjon i reisen deres ved å gi innsikt i kildene og driverne til risiko og veilede et AI-designteam i utviklingen av målrettede risikobegrensende strategier.

Om denne artikkelen

Av

Cathy Cobey

EY Global Trusted AI Advisory Leader

Thought leader in digital trust. Advocate of women in technology. Lover of good food. Film festival enthusiast. Avid learner. Parent.

Relaterte temaer Tillit