Hvordan vil du beskytte investeringene dine mot nok en "AI-vinter"?<br />

Av

EYQ

EYQ is EY’s think tank.

By exploring “What’s after what’s next?”, EYQ helps leaders anticipate the forces shaping our future — empowering them to seize the upside of disruption and build a better working world.

9 minutters lesing 15 feb 2019

Kunstig intelligens har vært en hype, men også kjølt seg ned, i flere omganger. Så hvordan kan en virksomhet sikre seg at de seneste investeringene innen AI faller i kategorien langsiktige verdi heller enn kortsiktig kostnad?

K unstig intelligens hylles som den «nye elektrisiteten» og forventes å forvandle hver eneste bransje – og gi opphav til nye produkter og tjenester, skape effektivisering og nye forretningsmodeller, og ikke minst levere betydelig finansiell og sosial verdiskapning. Forventningene til, og entusiasmen for, AI har nådd nye høyder. AI – på norsk KI – har fått en fremtredende rolle hos toppledere i næringslivet og offentlige etater som del av den bredere innsatsen for digitalisering.

Vi er langt unna selv en seksårings intelligensnivå, for ikke å snakke om en fullstendig, generell menneskelig intelligens.
Oren Etzioni
Professor ved University of Washington og administrerende direktør for Allen Institute for AI

«AI-vinteren»

Men vi har hørt store ord om AI før: Først fra starten på 1950-tallet til midten av 1970-tallet og deretter fra 1980 til 1987. Begge periodene ble etterfulgt av en «AI-vinter» – en periode hvor finansieringen og interessen avtok, og forskningen på feltet gikk under jorden.

Gitt denne historikken og den rådende optimismen rundt AI i dag, virker det naturlig å spørre seg: Vil AI gå inn i en ny vinter – kan vi forvente oss et déjà-vu? Og i så fall, hvordan kan bedriftsledere og myndigheter håndtere og minske risikoen forbundet med AI-investeringene og sikre at AI bygger samfunnsverdi uten at det går på menneskers bekostning?

Å beskytte AI-investeringen

For å minske risikoen for at en AI-investering eller et AI-prosjekt legges på is midt i kostbare prosesser med ditto følgevirkninger, er følgende punkter essensielle:

  1. å forstå mulighetene dagens AI-teknologi gir
  2. å forstå konsekvensene av feil
  3. ikke bli overbegeistret: Det er ingen menneskelig hjerne (ennå)!
Innovation Realized hanging chairs

Innovation Realized

På Innovation Realized Summit 2019 samlet vi noen av verdens skarpeste hjerner for å samarbeide om hvordan vi kan løse dagens utfordringer, utforske hva som blir de neste og forestille oss hva som kommer etter der igjen.

Oppdag mer

 Person Standing Snow Field ski
(Chapter breaker)
1

Kapittel 1

Hva er AI-teknologien i stand til i dag?

Litt historikk: AGI eller ANI?

Dartmouth-konferansen som ble holdt i 1956, var startskuddet for en gullalder med intens forskning på AI med målsettingen å «få en maskin til å oppføre seg på måter som ville bli kalt 'intelligente' hvis det var et menneske som oppførte seg slik»2.

Oppmuntret av imponerende fremskritt den første tiden kom AI-pionerer som Marvin Minsky med dristige påstander om at «i løpet av vår levetid vil maskiner kunne overgå oss når det gjelder generell intelligens» 3. Begrenset og kostbar datakraft og -lagring, samt knapphet på data, betød imidlertid at tidlige løsninger bare kunne løse rudimentære problemer. Disse teknologiske begrensningene førte til den første AI-vinteren, hvor finansieringen skrumpet inn og interessen forsvant. Den andre AI-vinteren 1980–87 kom da de såkalte ekspertsystemene ble dyre å vedlikeholde og viste seg sårbare i møte med uvanlige scenarier.

  • Tidlig AI: Hva mener vi med «ekspertsystemer»?

    Ekspertsystemene fikk en sentral rolle på 1980-tallet. Disse var programvaresystemer designet for å løse spesialiserte bransjespesifikke problemer som ellers ville kreve en spesialist. Ekspertsystemene ble utviklet for en rekke felt, inkludert medisin, luftfart, finans og bedriftsplanlegging og -optimalisering. Et typisk ekspertsystem besto av en kunnskapsbase av fakta og regler ervervet fra et menneske som var spesialist på feltet, og en inferensmotor som anvendte disse reglene og faktaene.

    Selv om ekspertsystemene representerte de første kommersielt vellykkede formene for AI, hadde teknologien og tilnærmingen flere svakheter. Som regelbaserte motorer måtte ekspertsystemene kontinuerlig oppdateres med nye fakta og regler; imidlertid ble kunnskap fra etterspurte bransjespesialister vanskelig å få tak i. Videre viste ekspertsystemene seg lite robuste fordi de var avhengig av hardkodet kunnskap, og hadde en tendens til å svikte når de ble konfrontert med uvanlige problemer som ikke hadde noen presedens i systemets kunnskapsbase.

    For eksempel kunne et ekspertsystem utviklet for å diagnostisere svulster basert på et sett med inndata mislykkes hvis disse inndataene avvek bare en anelse fra det som lå i kunnskapsbasen. I motsetning til et menneske var ikke ekspertsystemene i stand til å trekke på tidligere eller lignende erfaringer for å løse en uvanlig eller ny problemstilling.

Kanskje enda mer problematisk var det at man undervurderte hvor vanskelig det er å skape menneskelignende eller generell kunstig intelligens (AGI).

Den nåværende AI-renessansen har først og fremst sitt utspring i at man har fått bukt med de teknologiske hindringene som stakk kjepper i hjul for de tidlige forsøkene. Dagens AI-spesialister kommer imidlertid ikke med noen proklamasjoner om at vi vil oppnå AGI. Til tross for betydelige gjennombrudd, sier Oren Etzioni, professor ved University of Washington og administrerende direktør for Allen Institute for AI: «Vi er langt unna … selv en seksårings intelligensnivå, for ikke å snakke om fullstendig generell menneskelig intelligens …»4.

Smal kunstig intelligens (ANI)

Selv om AGI fremdeles er et langsiktig mål for enkelte på feltet, er det smal kunstig intelligens (ANI) som er i fokus og skaper entusiasme i dag.

Billig og rikelig med datakraft, store mengder digitale data generert av Internetts utbredelse samt Geoffrey Hintons gjennombrudd med dyp læring har ført til en eksplosjon av ANI-applikasjoner. Disse applikasjonene utfører spesifikke enkeltoppgaver i en begrenset kontekst veldig bra, noen ganger bedre enn mennesker. I dag skaper ANI-algoritmer samfunnsverdi ved å fungere som motorer for digitale stemmeassistenter, generere produktanbefalinger, og ved at de brukes til å oppdage kreft. De har også utvidet menneskets viten gjennom å finne nye planeter og utlede innsikt fra genetiske data fra mennesker. Det store antallet og mangfoldet av kommersielle ANI-applikasjoner er kanskje det som skiller denne tredje bølgen av AI-optimisme fra de som har vært tidligere.

Har endelig den evige «våren» kommet for ANI, nå som disse tingene er oppnådd?

 hiker standing mountain against sky during sunset
(Chapter breaker)
2

Kapittel 2

Hva er kostnaden ved å gjøre feil?

Det er blomstringstid for ANI. Men er den infisert med en kostbar menneskelig forutinntatthet?

Dagens AI-teknologi kan anvendes på et bredt spekter av problemer, med hver sin ulike risikoprofil. Man må utvise forsiktighet når man skal finne ut hvilken teknologi som egner seg til det enkelte brukstilfellet og konteksten.
Cathy Cobey
EY Global Trusted AI Consulting Leader

ANI-systemer (Artificial Narrow Intelligence) har blitt populære blant selskaper, myndigheter og gründere som står overfor en voksende strøm av digitale data som venter på å bli utnyttet. I bestrebelsene på å realisere det produktivitets- og effektivitetspotensialet som ligger i ANI, må disse interessentene imidlertid vurdere risikoen som følger av ANIs mangler, og potensialet for at utnyttelsen utilsiktet kan gå på menneskers bekostning.

Den vanligste kritikken av ANI dreier seg blant annet om algoritmens manglende evne til å resonnere utover opplæringsdataene, og tilbøyeligheten den kan ha til å spre iboende menneskelig forutinntatthet siden den lærer av data generert fra mennesker. Selv om ingen teknologi er fri for mangler, kan det bli en høy pris å betale for feil som stammer fra ANIs svakheter. Man kan se for seg alvorlige konsekvenser, spesielt i situasjoner der algoritmens beslutning kan påvirke enkeltpersons skjebne.

I noen tilfeller er algoritmiske feil i verste fall upraktiske. Selv om digitale stemmeassistenter for eksempel kan gjøre en og annen tabbe som fører til at brukeren blir pinlig berørt eller usikker et øyeblikk, fortsetter utrullingen og bruken i høyt tempo. På den annen side, i høyprofilerte, offentlige sammenhenger, har algoritmiske feil hatt katastrofale følger og underminert folks tillit. For eksempel har det vært dødsulykker hvor selvkjørende biler var involvert. Dette la selvsagt en demper på entusiasmen og førte til en betydelig svekkelse av forbrukernes tillit – en studie utført i 2018 fant at 73 % av amerikanske bilister ikke ville stole på et fullt ut selvgående kjøretøy, sammenlignet med 63 % i 2017.

Etter hvert som ANI-drevne beslutninger entrer andre viktige arenaer, som strafferett, utdanning og jobbrekruttering, har feil resultert i falske arrestasjoner , rasediskriminering og kjønnsdiskriminering . Hvis forekomsten av slike feil øker, kan det til slutt føre til at tilliten til hele teknologien blir borte. Dermed kan denne klassen av ANI-applikasjoner bli sårbar for en potensiell "vinter".

Dette betyr ikke at hele ANI-feltet vil begynne å vakle. Som Stefan Heck, medgründer og administrerende direktør for Nauto og EYQ Fellow, anslår at «kan hende trenger vi en annen kategori mellom ANI og AGI for å ta høyde for omstendigheter der feil kan føre til negative motreaksjoner fra samfunnet».

Definisjoner av AI og de ulike variantene av AI har tradisjonelt konsentrert seg om teknologiens evne til å etterligne eller overgå menneskets fysiske og kognitive evner. Selv om dette rammeverket har gitt et referansepunkt for teknologiens utvikling, gjenspeiler det ikke i tilstrekkelig grad risikoprofilene til algoritmer når de brukes i ulike sammenhenger.

Hvor risikofylt er AI?

Oversikten nedenfor gir bedrifter og myndigheter en måte å kategorisere og klassifisere sine nåværende og fremtidige AI-applikasjoner på.

. . . . . . .
 

Smal kunstig intelligens –

transaksjonell (ANI-T)

Kunstig smal intelligens –

konsekvensiell (ANI-C)

Generell kunstig intelligens

(AGI)

Kunstig
superintelligens

(ASI)

Definisjon Kan utføre enkeltoppgave i begrenset kontekst like bra som eller bedre enn menneske Kan utføre enkeltoppgave i dynamisk kontekst like bra som eller bedre enn menneske Kan utføre flere oppgaver i dynamiske kontekster like bra som menneske Overgår alle menneskelige intellektuelle evner i kjente og ukjente kontekster
Innvirkningens omfang Begrenset og kortvarig Bred og langvarig Alt! Ufattelig!
Eksempel

Digitale stemmeassistenter

Selvkjørende biler HAL 9000 Utenfor menneskelig fatteevne
Risikoprofil Lav Høy Ukjent Ukjent
.

Kilde: Stefan Heck & EYQ

Ved å bruke denne rubriseringen kan bedriftsledere og myndigheter vurdere risikoprofilen for sine ANI-baserte brukstilfeller, strategier og investeringer. Å håndtere risikoen, spesielt med ANI-C-applikasjoner, vil ikke bare være avgjørende for om innsatsen for digitalisering vil lykkes, men også for å opprettholde troverdigheten og tilliten til virksomheter og myndigheter hos kunder og innbyggere. Følgelig vil dette gjøre dem i stand til å realisere det betydelige potensialet ANI har til å forbedre produktiviteten, effektiviteten og den generelle livskvaliteten.

Det pågår en rekke initiativer for å overvinne de teknologiske begrensningene ved ANI og for å formilde de uønskede konsekvensene av algoritmiske feil – nye algoritmiske tilnærminger, rammeverk for «etisk AI» og tilgjengeligheten av open source-verktøy for å revidere algoritmer med tanke på forutinntatthet, for å nevne noen. Toppledere må ta en aktiv rolle i disse initiativene, og sammen med myndighetene arbeide for å utvikle mer etiske, rettferdige, nøyaktige og transparente algoritmer. Å bygge opp tillit til teknologien vil være avgjørende for å hindre risikoen for at en ny "vinter" for ANI-C-applikasjoner er nær forestående.

Til syvende og sist vil suksess avhenge av at bedriftsledere og myndigheter lar menneskelige interesser og verdier stå sentralt i utviklingen av alle former for ANI-løsninger. Videre må de eliminere eller minimere konsekvensene av algoritmiske feil som kan få vidtrekkende økonomiske følger eller innvirke på menneskers ve og vel.

 man ice bouldering iceberg St-Lawrence river Canada
(Chapter breaker)
3

Kapittel 3

ikke bli overbegeistret: Det er ingen menneskelig hjerne (ennå)!

Myten, forventningene og virkeligheten

Kanskje er forventningene våre om en AI-vår for høye.
Susan Etlinger
Bransjeanalytiker, Altimeter Group

Populærkulturelle fenomer, fra Pygmalion til Frankenstein, har bevisst eller underbevisst bidratt til menneskehetens forestilling om hva som utgjør AI – et kunstig vesen fylt med den bevisstheten, de følelsene, det intellektet og den atferden vi forbinder med mennesker.

Ethvert teknologisk gjennombrudd som innebærer et skritt nærmere å realisere denne AI-visjonen, forsterker vår oppfatning. Mulighetene for feil blir ikke tatt i betraktning når våre forventninger dannes. Når så en kritisk feil oppstår, blir håpet knust, og teknologien anses som upålitelig. I virkeligheten er ikke teknologien i dag robust nok til at vi kan overlate til AI å ta beslutninger hvis de innebærer betydelige konsekvenser for mennesker. Ray Edwards er GM ICT Business Development & Venture Capitalist hos Yamaha Ventures. Han sier at «noen brukstilfeller vil fremdeles kreve omfattende menneskelig samhandling og skjønn før de kan utnyttes kommersielt i større skala».

Det å bygge bro mellom forventningene våre og virkeligheten vil være avgjørende for å hindre en ny "vinter", uavhengig av hvilken variant av ANI det dreier seg om (ANI-T eller ANI-C). Som Nigel Duffy, leder for Global Innovation Artificial Intelligence hos EY, bemerker: «Å innrette forventningene våre etter virkeligheten er ikke noe vi har gjort tidligere, og vi har ingen garanti for at vi vil være i stand til å gjøre det nå. Så risikoen for nok en 'I-vinter' er fortsatt høy».

Å holde vinteren tilbake

For bedriftsledere og myndigheter med betydelige investeringer i ANI vil minimering av risikoen for en "vinter" innebære å:

  • delta i en mer balansert offentlig samtale
  • erkjenne svakhetene ved ANI
  • håndtere kundenes forventninger
  • på en gjennomtenkt måte utvikle og ta i bruk ANI-C-applikasjoner for å fremme pålitelige, rettferdige og etiske resultater

Selv med sine nåværende svakheter har ANI et stort potensial til å forbedre dagens livskvalitet for folk. Hvis vi vi har altfor høye og urealistiske forventninger til ANI, kan dette hindre oss i å realisere teknologiens fordeler.

Som Roy Amara, tidligere president for Institute for the Future, sier: «Vi har en tendens til å overvurdere effekten av en teknologi på kort sikt og undervurdere effekten i det lange løp.» Selv om ANI kanskje ikke blir til AGI på kort sikt, er et sentralt imperativ for bedriftsledere og myndigheter å utnytte ANI på en egnet og sikker måte, for å oppnå ny innovasjon som vil gi stor samfunnsverdi i tiårene som kommer.

Se på digitalisering fra alle vinkler

Innsikt i digitalisering fra EY kan hjelpe deg å avdekke nye verdier og skape fremtidens foretak. 

Oppdag mer

Sammendrag

Det mest effektive tiltaket for å forhindre flere "AI-vintre" kan være å harmonisere forventningene våre med virkeligheten når det gjelder hva AI kan utrette i dag.

Om denne artikkelen

Av

EYQ

EYQ is EY’s think tank.

By exploring “What’s after what’s next?”, EYQ helps leaders anticipate the forces shaping our future — empowering them to seize the upside of disruption and build a better working world.