Diabetic girl with a CGM sensor on her arm. Father using an app to monitor blood sugar levels.
Diabetic girl with a CGM sensor on her arm. Father using an app to monitor blood sugar levels.

Wie bepaalt de grenzen van AI naarmate het verandert van advies naar autoriteit?

Gerelateerde topics

Uit het EY Global AI Sentiment Survey blijkt dat de adoptie wordt bepaald door wat mensen doen, niet door wat ze zeggen.

In het kort

  • Mensen zeggen dat ze AI niet vertrouwen, maar uit hun dagelijkse keuzes blijkt dat ze het toch gebruiken.
  • Autonome AI is niet langer theoretisch: 16% van de mensen heeft alleen al in de afgelopen zes maanden AI gebruikt die namens hen handelt.
  • Het gebruik van AI verschuift van hulp met een laag risico naar beslissingen die meer op het spel staan, zoals beslissingen op het gebied van gezondheid, financiën en transport.

Als mensen abstract over kunstmatige intelligentie (AI) praten, hebben ze de neiging om zich te richten op waar ze bang voor zijn. Maar op de vraag hoe ze het eigenlijk gebruiken, komt een ander beeld naar voren. In het dagelijks leven hebben mensen AI ingebed in hoe ze plannen, beslissen en handelen: om routes uit te stippelen, vragen te beantwoorden of problemen op te lossen.

Tegelijkertijd voltrekt zich aan de rand van dit geheel een andere belangrijke verschuiving. Een groeiend aantal mensen vraagt niet langer alleen om advies, ze beginnen AI namens hen te laten handelen. De beslissingsbevoegdheid verschuift van mensen naar systemen, en wat begon als assistentie met een laag risico, ontwikkelt zich nu tot iets dat veel meer gevolgen heeft.

Deze verschuiving van ondersteunende naar autonome AI is geen toekomstscenario. Het is al aan de gang en verloopt sneller dan de meeste organisaties zich realiseren.

Ondanks het feit dat het publieke debat over AI gericht blijft op vertrouwen, verantwoordingsplicht en authenticiteit, toont de tweede jaarlijkse EY AI Sentiment Study, gebaseerd op inzichten van meer dan 18.000 mensen in 23 markten, aan dat de adoptie van AI snel toeneemt, ver voor het vertrouwen. 

De ervaring leert dat dit soort verschuivingen zelden geleidelijk plaatsvinden. Als vroege gebruikers beginnen te experimenteren, herdefiniëren ze vaak wat normaal voelt. Wat ooit radicaal leek, kan bijna van de ene dag op de andere routine worden.

Voor leiders is de implicatie van deze verschuiving duidelijk. De vraag is niet langer of mensen autonome AI zullen accepteren. Het gaat erom hoe snel die acceptatie zich zal verspreiden, welke gebruikers en markten het eerst in beweging zullen komen en of organisaties voorbereid zullen zijn om hen tegemoet te komen.

Zoals EY Global CEO Janet Truncale het zegt: "Nu AI steeds beter in staat is om namens ons beslissingen te nemen, is vertrouwen geen 'bolt on'-voordeel, maar een 'ingebouwde' noodzaak. Als AI wordt ontworpen met duidelijke vangrails en continu toezicht, kunnen organisaties hun autonomie met vertrouwen uitbreiden."

Dit rapport onderzoekt hoe alledaagse keuzes de overgang van assistentie naar autonomie versnellen en wat bedrijfsleiders nu moeten doen om te bepalen hoe ze vertrouwen kunnen opbouwen, waar grenzen verlegd kunnen worden en waar ze doelbewust tempo moeten maken in een wereld die sneller dan verwacht autonoom zou kunnen worden.

Onbemande taxi in Abu Dhabi, VAE
1

Hoofdstuk 1

Een belangrijke minderheid laat AI al beslissen

Mensen laten AI namens hen handelen, een verschuiving die te groot is voor bedrijven om te negeren.

Autonome AI is niet langer theoretisch. Alleen al in de afgelopen zes maanden zegt 16% van de mensen wereldwijd dat ze al AI-systemen hebben gebruikt die namens hen handelen, zonder menselijke tussenkomst. En deze delegatie komt tot uiting in alledaagse beslissingen. Tien procent van de mensen geeft aan AI-agenten te gebruiken om namens hen producten te kopen. Elf procent laat AI automatisch winkelwagentjes bijvullen en aankopen doen. Nog eens 11% laten AI hun financiën beheren en banktaken uitvoeren zonder tussenkomst. En 9% heeft wel eens een zelfrijdende auto of taxi gebruikt. 

Wat begon als AI die adviseert, wordt nu AI die handelt.

Voor degenen die AI nog niet autonoom hebben gebruikt, is de openheid om dit te doen duidelijk zichtbaar. Wanneer mensen wordt gevraagd om na te denken over mogelijke toekomstige scenario's, is hun voorkeur voor AI die voor hen handelt het sterkst op vertrouwde momenten met weinig risico. In plaats van dat AI als assistent optreedt of aanbevelingen doet, zou meer dan een derde van de respondenten liever zien dat AI automatisch kortingen toepast bij het afrekenen (36%) of dat een AI-assistent contact opneemt met de klantenservice om problemen zonder tussenkomst op te lossen (34%).

En daar houdt de interesse niet op. Zelfs in situaties waar meer op het spel staat, is een aanzienlijk deel van de mensen bereid om AI de leiding te laten nemen. Dertig procent van de respondenten geeft de voorkeur aan een huisbeveiligingssysteem dat automatisch deuren vergrendelt en de autoriteiten op de hoogte stelt van ongewone activiteiten. Anderen staan open voor een AI-assistent die automatisch doktersafspraken boekt (21%) of een AI-avatar die online vergaderingen bijwoont terwijl zij weg zijn (19%).


Deze gedragingen vormen misschien nog steeds een minderheid, maar ze zijn groot genoeg om er toe te doen. Belangrijk is dat de interesse veel verder reikt dan de huidige gebruikers van autonome AI. Meer dan een derde van de mensen die nu nog geen AI gebruiken, zou bijvoorbeeld vertrouwen hebben in autonome AI om serviceproblemen op te lossen, wat aantoont hoe snel een betekenisvolle minderheid kan veranderen in een nieuwe algemene verwachting zodra autonomie betrouwbaar blijkt te zijn.

Voor leiders zijn de eerste signalen van verandering al zichtbaar, wat betekent dat het tijd is om op te letten en zich voor te bereiden op wat er waarschijnlijk komen gaat. Degenen die dat niet doen, lopen het risico verrast te worden door verschuivingen die plotseling aanvoelen, alleen maar omdat de eerste signalen over waar autonomie geaccepteerd wordt, gemist zijn.

Het in Australië gevestigde Lendi Group speelt al in op deze verschuiving. In 2025 lanceerde het bedrijf Lendi Guardian, een altijd actieve AI-gestuurde digitale metgezel voor huizen en leningen die actief hypotheekrentes en vermogensveranderingen in de gaten houdt, automatisch vooraf herfinancieringsaanvragen invult als de rente daalt en klanten onderweg taxeert. Door over te stappen van aanbeveling naar uitvoering, verhoogde de service de betrokkenheid bij het platform met 40%.

De verschuiving naar autonome AI gaat niet overal even snel. Hoewel er in elke markt early adopters zijn, zijn er ook die verder zijn op hun reis. In de markten die wij pioniermarkten noemen, wordt AI breder, frequenter en dieper in het dagelijks leven ingebed, waardoor de voorwaarden worden gecreëerd om delegatie sneller en op grotere schaal te laten plaatsvinden. Binnen Pioneer Markets geeft 94% van de mensen aan AI te gebruiken en bijna een kwart heeft autonome AI gebruikt. Deze gebruikers experimenteren niet alleen meer, ze vertrouwen ook vaker op AI, in grotere contexten en met meer vertrouwen in de rol ervan in de dagelijkse besluitvorming.

Pioniermarkten

Overgangsmarkten

Achterblijvende markten

India

Singapore

Canada

China

Italië

Zweden

KSA

Denemarken

Finland

VAE

Ierland

Groot-Brittannië

Mexico

Verenigde Staten

Australië

Brazilië

Noorwegen

Nieuw-Zeeland

SAR Hongkong

Duitsland

Japan

Zuid-Korea

Frankrijk

Wat deze markten onderscheidt, is ervaring. Mensen in Pioneer Markets hebben vaker praktische ervaring met AI en hebben een zinvolle training of opleiding gevolgd. Ze voelen zich meer op hun gemak bij het delen van gegevens om personalisatie mogelijk te maken, wat hun positievere ervaring versterkt.


Andere landen vallen daarentegen in twee grote groepen uiteen. In Transitional Markets neemt het gebruik van en de interesse in AI toe, maar door het lagere vertrouwen zijn mensen voorzichtiger met het delegeren van taken. Er is enthousiasme, maar het is nog in ontwikkeling. In achterblijvende markten is er meer aarzeling omdat mensen AI selectiever gebruiken en de relevantie ervan in twijfel trekken.

Deze verschillen wijzen op verschillende niveaus van gereedheid. In pioniermarkten creëren geavanceerdere regelgevende kaders, culturele normen en organisatorische bereidheid sterkere voorwaarden voor de uitbreiding van autonomie. Voor wereldwijde bedrijven zorgt dit voor een implementatiedilemma, omdat een model dat voor de ene context is ontworpen, waarschijnlijk niet zal werken in een andere context.

Pioniermarkten bieden een vroeg beeld van hoe snel AI kan worden toegepast als gebruik, vertrouwen en vermogen samen toenemen. Deze markten en early adopters zijn geen randgevallen die moeten worden ingeperkt; het zijn voorproefjes van hoe snel normen kunnen veranderen als het vertrouwen eenmaal aanslaat.

Leiders moeten aandacht schenken aan een nieuw strategisch risico. Niet dat autonome AI er zal zijn voordat mensen er klaar voor zijn, maar wel dat het er zal zijn voordat organisaties begrijpen waar mensen bereid zijn heen te gaan, wat hen vertrouwen geeft en hoe snel verwachtingen kunnen veranderen.

Close-up van twee zakenmensen die een smartphone en een laptop delen, met behulp van virtuele assistentie en AI-toepassingen.
2

Hoofdstuk 2

AI is ieders persoonlijke assistent geworden

Alledaags comfort legt de basis voor hulp bij belangrijkere taken.

Voor alledaagse gebruikers zit de grootste doorbraak van AI niet in slimheid, maar in gebruiksgemak. Door kleine, alledaagse taken uit te voeren, is AI zonder veel weerstand in de dagelijkse routines opgenomen. Routeplanning, filmsuggesties en klantenondersteuning zijn activiteiten waarvan mensen verwachten dat technologie ze afhandelt. Dit zijn taken waarbij de resultaten gemakkelijk kunnen worden herzien, gecorrigeerd of overschrijven en dat gevoel van controle is belangrijk.

Het 2026 onderzoek laat zien dat ervaringen zoals deze de bouwstenen van vertrouwen zijn. Naarmate mensen meer interactie met AI hebben op een manier die nuttig en weinig inspannend aanvoelt, maakt hun aarzeling plaats voor acceptatie. AI voelt niet langer nieuw of experimenteel, het is gewoon nuttig.


De groei van AI is niet gelijkmatig verdeeld over alle activiteiten, maar de richting is duidelijk. In de meeste gevallen zijn mensen niet op zoek naar innovatie omwille van de innovatie zelf. Ze zijn op zoek naar snellere service (57%), lagere prijzen (57%) en producten en diensten die beter werken (42%). Interessant genoeg is de wens van mensen om minder beslissingen te nemen niet zo'n motiverende factor (25%).


In de detailhandel wordt AI steeds vaker gebruikt om mensen te helpen hun intentie te verwoorden in plaats van door filters te navigeren. In plaats van te zoeken op trefwoorden of categorieën, kunnen mensen beschrijven wat ze proberen te bereiken en AI het veld laten verkleinen.

Vorig jaar lanceerde Nike NikeAI beta in hun mobiele app in de VS. Met de bijgewerkte app kunnen klanten beschrijven wat ze willen doen, zoals trainen voor een wedstrijd, een team samenstellen of producten vinden die aan specifieke voorkeuren voldoen. AI in de app interpreteert die intentie om de best mogelijke aanbeveling te doen. De ervaring is ontworpen om eenvoudig, intuïtief en gemakkelijk te veranderen te zijn, met behulp van grote taalmodellen (LLM's) die zijn aangepast aan de domeinkennis van Nike. Door klanten ondersteuning te bieden wanneer ze die nodig hebben, maar de uiteindelijke beslissingen in hun handen te laten, vermindert assisterende AI de ergernis, bespaart het tijd en schept het vertrouwen zonder risico's te introduceren.

Dergelijke situaties lijken misschien weinig voor te stellen, maar zijn strategisch belangrijk. Door alledaagse interacties zoals deze leren mensen of een systeem betrouwbaar en begrijpelijk aanvoelt en op hun behoeften is afgestemd. Ze stellen organisaties ook in staat om in een vroeg stadium inzicht te krijgen in waar het vertrouwen toeneemt en waar het kan afnemen. Voor leiders betekent dit dat ze ervaringen met assistentie-AI voor lagere toetsen kunnen gebruiken als diagnostisch hulpmiddel. De voorbeelden onthullen welke taken mensen bereid zijn uit handen te geven, welke garanties ze verwachten en hoe snel het comfort kan groeien zodra de waarde bewezen is.

Gezondheidsgerelateerd gebruik valt op omdat het niet meer alleen om gemak gaat, maar ook om meer betekenisvolle toepassingen. Veel mensen gebruiken nu AI om symptomen te beschrijven, te vragen wat er mis zou kunnen zijn of om te beslissen of ze hulp moeten zoeken. Wereldwijd stellen ongeveer 230 miljoen mensen elke week gezondheidsgerelateerde vragen aan ChatGPT.1

AI-gestuurde apps voor symptoombeoordeling zoals Buoy Health stellen gebruikers in staat om symptomen in hun eigen woorden te beschrijven en klinische inzichten te verkrijgen. Buoy biedt richtlijnen voor het soort zorg dat gebruikers nodig kunnen hebben. Deze hulpmiddelen geven in toenemende mate vorm aan gezondheidsbeslissingen in de echte wereld, inclusief of en wanneer mensen formele zorgtrajecten ingaan.

Wat opvalt, is hoe snel AI een eerste stop wordt voor gezondheidsvragen.

Toegang tot dit soort hulpmiddelen helpt verklaren waarom 26% van de respondenten in het onderzoek aangeeft AI te vragen om een diagnose te stellen, tegenover 19% vorig jaar. Hetzelfde aantal (26%) gebruikt AI om gezondheidsinformatie op te zoeken zonder een arts te bezoeken. "Wat opvalt, is hoe snel AI een eerste stop wordt voor gezondheidsvragen," zegt Kim Dalla Torre, EY Global Health Sector Leader. "Nu mensen erop gaan vertrouwen om echte beslissingen te nemen, wordt de behoefte aan veilige, nauwkeurige en gemakkelijk gevalideerde AI veel belangrijker."

Organisaties moeten zich niet haasten in de richting van volledige autonomie, maar ze moeten wel goed letten op ervaringen die de verwachtingen al vormgeven. Het zijn deze momenten die zullen bepalen hoe ver en hoe snel mensen bereid zijn te gaan.

High angle view of worried male tech expert sitting at desk with colleague at office
3

Hoofdstuk 3

Waarom vertrouwen achterloopt op AI-capaciteit

Het gebruik van AI loopt voor op het vertrouwen van mensen in hoe het wordt bestuurd, gecontroleerd en verantwoord.

Nu AI steeds meer ingebed raakt in het dagelijks leven en in sommige gevallen autonoom begint te werken, heeft het vertrouwen geen gelijke tred gehouden met de mogelijkheden. Mensen blijven bezorgd, zelfs in Pioneer Markets, over veiligheid, controle, verantwoording en authenticiteit. Maar het is interessant dat deze zorgen de adoptie niet afremmen. Ze geven vorm aan de manier waarop mensen autonomie willen zien, een cruciaal onderscheid voor leiders die de volgende fase van de invoering van AI moeten navigeren.

Veiligheid is de grootste angst van mensen. Twee derde maakt zich zorgen over AI-systemen die gehackt of geschonden worden, en minder dan de helft vertrouwt erop dat overheden of bedrijven persoonlijke gegevens beschermen die door hun AI-systemen worden gebruikt. Naarmate de autonomie toeneemt, wordt deze zorg meer dan een zorg op de achtergrond. Hoe meer AI kan doen, hoe meer beveiliging in beeld komt. Leiders moeten bedenken wat er kan gebeuren als systemen worden aangetast en hoe snel die schade zich kan uitbreiden.

De andere grote zorg van mensen is controle. Ze maken zich zorgen dat beslissingen die door AI worden genomen niet hun persoonlijke waarden of prioriteiten zullen weerspiegelen; zeven op de tien zijn het erover eens dat menselijk toezicht essentieel blijft. Dit is geen afkeuring van AI, maar een verzoek om autonomie en de mogelijkheid om te begrijpen wat het systeem doet, om in te grijpen als het belangrijk is en om uit te stappen als er meer op het spel staat.

Accountability
55%
Bezorgdheid dat organisaties hun eigen AI-beleid of relevante overheidsvoorschriften niet zullen naleven.

Zes op de tien mensen maken zich zorgen over organisaties die er niet in slagen zichzelf verantwoordelijk te houden voor AI-gebruik dat tot negatieve gevolgen leidt. Bijna evenveel (55%) maken zich zorgen dat organisaties hun eigen AI-beleid of relevante overheidsvoorschriften niet zullen naleven.

Sommige organisaties reageren hierop door hun AI-verplichtingen explicieter te maken. Tokio Marine Holdings, een verzekeringsmultinational, heeft bijvoorbeeld een openbaar AI-beleid aangenomen als onderdeel van het gebruik van AI voor schadeafhandeling, fraudedetectie en andere klantenserviceactiviteiten, om vertrouwen te winnen in de streng gereguleerde verzekeringssector. Het beleid, dat in 2025 werd uitgebracht, stelt dat het bedrijf niet zal vertrouwen op AI-gegevens of technieken die vooroordelen tegen een groep zouden kunnen introduceren, en dat op AI gebaseerde functies en beslissingen mensen altijd op de hoogte zullen houden. Verder staat er dat het bedrijf AI-gebruik zal voorkomen dat mensenrechten schendt, valse of bevooroordeelde informatie verspreidt, of leidt tot lekken, vervalsingen of ongeoorloofd gebruik van persoonlijke informatie.

Een overweldigende meerderheid van de respondenten is het ermee eens dat AI-uitvoer duidelijk moet laten zien wanneer iets door AI is gemaakt of beïnvloed. Bijna driekwart maakt zich zorgen dat als generatieve AI (GenAI) op grotere schaal wordt toegepast, ze niet meer in staat zullen zijn om te zeggen wat echt of nep is.

"De vervaging van de werkelijkheid is een van de meest onderschatte AI-risico's," zegt Katherine Boiciuc, EY Chief Technology and Innovation Officer voor de regio Oceanië. "Als mensen niet gemakkelijk kunnen uitmaken wat echt is, wat gegenereerd is, of wie er achter een beslissing zit, creëert dat een laaggradige angst die het vertrouwen aantast, zelfs als de technologie zelf werkt zoals bedoeld."

Respondenten willen ook dat AI-tools ouderlijk toezicht en leeftijdsgrenzen bevatten en vinden dat landen en regio's strengere regels moeten hebben voor het gebruik van organisaties. In alle drie de markttypes: pionier, overgang en achterstand, vinden mensen dat er meer voorzorgsmaatregelen moeten worden genomen.


"Wat mij verbaast is niet dat mensen sterkere AI-waarborgen willen, het is hoe consistent die verwachting is in alle markten," zegt Sarah Liang, EY Global Responsible AI Leader. "Ongeacht waar mensen wonen of hoe ver de toepassing van AI gevorderd is, ze vragen om duidelijkere regels, sterkere verantwoording en zichtbare bescherming."

De mogelijkheden van AI gaan snel vooruit, terwijl de bestuurs- en verantwoordingsstructuren duidelijk moeite hebben om gelijke tred te houden. Terwijl mensen door dagelijks gebruik steeds meer beslissingen delegeren aan AI, ontwikkelt het toezicht door middel van beleid, regelgeving en organisatorische controle zich langzamer. Organisaties moeten daarom hun beloften tastbaar maken door systemen te bouwen die begrijpelijk en controleerbaar zijn en afgestemd op de menselijke behoeften. Vertrouwen kan niet alleen in principes bestaan, het moet ook tot uiting komen in de ervaring van het gebruik van AI.

Wat mij verbaast is niet dat mensen sterkere AI-waarborgen willen, het is hoe consistent die verwachting is op alle markten.

Mensgericht ontwerpen is een van de krachtigste, maar weinig gebruikte mechanismen geworden die organisaties hebben om de vertrouwenskloof te dichten.

Mannelijke softwareontwikkelaar presenteert het Mobile Application Architecture Diagram op het grote scherm aan het ontwikkelteam in de vergaderruimte.
4

Hoofdstuk 4

AI ontwerpen die mensen vertrouwen

Hoe meer verantwoordelijkheid AI op zich neemt, hoe meer het vertrouwen van mensen zal afhangen van hoe AI zich gedraagt op momenten die er toe doen.

Naarmate AI-systemen geavanceerder worden, is het duidelijk dat het opbouwen van vertrouwen niet alleen gebeurt via beleid, principes of technische garanties. Het wordt opgebouwd of verloren door ervaring. Wat mensen zien, begrijpen en voelen wanneer ze AI gebruiken om beslissingen te nemen of te beïnvloeden, bepaalt in toenemende mate of ze bereid zijn om het opnieuw te proberen.

In die zin wordt design de frontlinie van AI-governance. Hier ervaren echte mensen waarborgen, verantwoording en controle. Doordacht ontwerp wordt de brug tussen vermogen en comfort. Als AI goed ontworpen is, biedt het geruststelling en duidelijkheid. Als het slecht ontworpen is, doet het het tegenovergestelde.

"De meest vertrouwde ervaringen breiden de autonomie geleidelijk uit," legt Peter Neufeld, EY Studio+ EMEIA Financial Services Digital Customer Experience Leader, uit, "waarbij gebruikers eerst vertrouwen krijgen en dan uitbreiden wat het systeem mag doen. Ontwerpen voor comfort gaat over tempo, mensen verzetten zich niet tegen autonomie, ze verzetten zich tegen het verliezen van controle."

Het EY Human Signals-rapport (pdf) onderzoekt de belangrijkste kenmerken van succesvolle AI-ervaringen:

  • Emotionele ondersteuning: Mensen die hulp zoeken geven meer om de emotie of complexiteit van het moment dan om het product dat ze gebruiken.
  • Eenvoud: Een goed ontwerp vermindert de cognitieve belasting door een ervaring zo moeiteloos mogelijk te maken, door complexe taken op te splitsen en volgende stappen te verduidelijken.
  • Bewijs en traceerbaarheid: Een superieur ontwerp bevat samenvattingen, transcripties en logboeken zodat mensen het gevoel hebben dat ze controle hebben over de interactie, en om verkeerde interpretaties te voorkomen.
  • Aanpassing: Het geeft mensen de controle die ze willen over hoe "warm" of "neutraal" een AI-hulpmiddel aanvoelt. Indien nodig biedt het direct toegang tot interactie met een mens in plaats van een bot.
  • Inclusiviteit en toegankelijkheid: Het heeft conversatie-interfaces die mensen met verschillende niveaus van geletterdheid, taal of toegankelijkheid ondersteunen.
  • Zichtbare beperkingen: Vertrouwen ontstaat door duidelijk te laten zien wat het systeem niet zal doen, en gebruikers controle te geven over die grenzen. Controleerbaarheid, override en menselijke escalatie zijn geen back-up plan, maar een kernkenmerk van verantwoording.

Een recent rapport van EY over het creëren van betrouwbare AI-ervaringen, laat zien hoe diep het ontwerp kan gaan op taal, tempo en duidelijkheid. In het rapport benadrukt Miki Van Cleave, Chief Design Officer voor Chase, de consumenten- en gemeenschapsbank van JPMorganChase, de hoeveelheid zorg die besteed moet worden aan het vormgeven van AI-gedreven interacties. "We zijn hier om vertrouwen op te bouwen en te beginnen met de mentaliteit van de consument te begrijpen," zegt Van Cleave. "We besteden buitensporig veel tijd aan het bedenken van de taal die klanten moeten horen, zodat het voor hen glashelder is wat ze aan het doen zijn. Bij fraudedetectie bijvoorbeeld, besteden we uren, dagen en weken aan het ontleden van elk zelfstandig naamwoord, werkwoord en bijvoeglijk naamwoord op een tussenpagina om ervoor te zorgen dat klanten weten wat ze moeten doen."

 

De behoefte aan duidelijkheid is niet cosmetisch. Het bepaalt of mensen het gevoel hebben dat ze de controle hebben, vooral in situaties waar veel op het spel staat, zoals in de financiële wereld.

 

Leiders zullen niet beslissen of AI meer autonoom wordt. Dat traject is al in beweging. Wat ze wel kunnen beslissen is hoe weloverwogen die autonomie wordt ingevoerd, waar ze wordt ingeperkt, waar ze wordt uitgebreid en hoe het vertrouwen onderweg wordt opgebouwd.

 

De meest succesvolle organisaties zullen niet diegene zijn die het snelst AI overal invoeren, of diegene die een afwachtende houding aannemen. Ze zullen design gebruiken om een weloverwogen tempo in te stellen, om te versnellen waar vertrouwen en waarde al bestaan, en te vertragen waar duidelijkheid, waarborgen of vertrouwen nog nodig zijn.

Diverse group of business professionals listening attentively as a businesswoman leads a discussion on artificial intelligence design at a modern conference
5

Hoofdstuk 5

Implicaties voor bedrijfsleiders

Het tempo van autonomie bepalen

De toekomst van AI wordt niet bepaald door abstracte debatten of langetermijnvoorspellingen. Het wordt gevormd door alledaagse keuzes: door wanneer, waar en hoe mensen besluiten om AI namens hen te laten handelen.

De bevindingen van het onderzoek van dit jaar maken één ding duidelijk: de adoptie van AI gaat sneller dan het sentiment. Een groeiende minderheid van de mensen delegeert al beslissingen aan AI, terwijl veel meer mensen vertrouwen opbouwen door dagelijkse toepassingen met een laag risico. In sommige markten is deze ontwikkeling al in volle gang, wat al laat zien hoe snel de verwachtingen kunnen verschuiven zodra bekendheid en waarde op één lijn liggen.

Voor bedrijfsleiders creëert de huidige marktdynamiek zowel een kans als een verantwoordelijkheid.

De kans ligt in de erkenning dat autonomie niet in één keer komt. Het breidt zich uit via specifieke momenten, gebruikers en markten, vaak sneller dan organisaties verwachten, maar niet zonder patroon of signaal. De verantwoordelijkheid ligt in het vroegtijdig begrijpen van deze signalen, het leren van waar het vertrouwen zich al vormt en het bewust reageren in plaats van reactief.

Cruciaal is dat dit geen keuze is tussen snelheid en voorzichtigheid. De gegevens laten zien dat mensen niet wachten op perfect vertrouwen om verder te gaan. Ze onderhandelen over vertrouwen in beweging. Ze blijven AI gebruiken en in sommige gevallen delegeren, maar vragen tegelijkertijd om duidelijkere waarborgen, een sterkere verantwoordingsplicht en meer transparantie.

Het heeft leiders in een nieuwe positie gebracht. De vraag is niet langer of autonome AI schaalbaar zal zijn. Het is de vraag of organisaties de schaalvergroting opzettelijk zullen vormgeven door te versnellen waar vertrouwen en waarde al bestaan, en te vertragen waar duidelijkheid, waarborgen of vertrouwen nog nodig zijn.

Wat moeten leiders nu doen?

  • Leid met ervaring, niet met beloftes: Bouw vertrouwen op door gebruik. Geef de voorkeur aan AI-toepassingen die een duidelijke, dagelijkse waarde leveren en mensen in staat stellen om deze te herzien, op te heffen of zich terug te trekken naarmate het vertrouwen groeit.
  • Segmenteer op basis van AI-rijpheid, niet op demografische gegevens: Mensen en markten gaan met verschillende snelheden vooruit. Ontwerp ervaringen, berichtgeving en besturingselementen die gebruikers tegemoet komen waar ze zijn, in plaats van uit te gaan van één enkel pad naar acceptatie.
  • Maak vertrouwen zichtbaar: Het verstrekken van duidelijke informatie, sterke gegevensbescherming, 'human-in-the-loop'-opties en transparante verantwoordingsplicht is niet langer een onderscheidende factor. Het is een vereiste naarmate de autonomie toeneemt.
  • Ontwerp voor emotionele context: Nu AI steeds belangrijkere taken op zich neemt, is een ontwerp dat rekening houdt met empathie, eenvoud en tempo net zo belangrijk als prestaties. Design is geen finishing touch; het is een strategische katalysator voor vertrouwen en acceptatie.

Leiders hebben een keuze. Ze kunnen delegatie standaard laten groeien, gevormd door externe krachten en early adopters. Of ze kunnen het doelbewust ontwerpen, met zichtbare beperkingen, duidelijke verantwoording en vertrouwen ingebouwd vanaf het begin.

Degenen die er bewust voor kiezen om te handelen, zullen meer doen dan gelijke tred houden met verandering. Ze zullen een duurzame licentie verdienen om leiding te geven in een wereld die steeds autonomer wordt.

De auteurs bedanken Katherine Boiciuc, Oceania Chief Technology and Innovation Officer, Ernst & Young Australia; Peter Neufeld, EY Studio+ EMEIA Financial Services Digital Customer Experience Leader, Ernst & Young LLP, Krista Walpole, Associate Director, EYGS LLP; AnnMarie Pino, Associate Director, Ernst & Young LLP; Gaurav Batra, Associate Director, Ernst & Young LLP en Harshil Milan Zatakia, Supervising Associate, Ernst & Young LLP voor hun bijdragen aan dit artikel.


Samenvatting

Dagelijks gedrag laat zien dat AI sneller wordt toegepast dan het vertrouwen van het publiek. Hoewel mensen vaak hun bezorgdheid uiten over vertrouwen en controle, blijven ze AI integreren in hun dagelijkse beslissingen en vertrouwen ze er geleidelijk op voor meer belangrijke taken. Vertrouwde toepassingen met weinig moeite normaliseren de aanwezigheid van AI en leggen de basis voor een grotere delegatie. Als gevolg hiervan begint de beslissingsbevoegdheid te verschuiven van mensen naar systemen, vaak voordat organisaties volledig hebben begrepen waar de acceptatie ontstaat of hoe snel de verwachtingen veranderen. 


Gerelateerde content

Hoe een AI-gestuurde transformatie een grote brouwer hielp groeien

Asahi Europe & International koos voor een managed services-benadering en werkte samen met EY en Microsoft om de regels rond de optimalisatie van handelspromotie te herschrijven.

AI maakt organisaties slimmer, sneller en strategischer

EY AI Barometer toont hoe AI organisaties helpt efficiënter te werken, kosten te besparen en strategisch voordeel te behalen in Europa en Nederland.

Europese organisaties verhogen hun winst en verlagen de kosten door de inzet van AI

Vier op de tien bedrijven zien productiviteitswinst door AI, maar slechts de helft heeft een ethisch kader voor gebruik.


    Over dit artikel

    Auteurs

    Bijdragers