EY verwijst naar de wereldwijde organisatie en kan verwijzen naar een of meer van de lidfirma's van Ernst & Young Global Limited, die elk een afzonderlijke juridische entiteit zijn. Ernst & Young Global Limited, een Britse vennootschap met beperkte aansprakelijkheid, verleent geen diensten aan cliënten.
Hoe EY kan helpen
-
Ontdek hoe Responsible AI organisaties helpt om eerlijkheid, betrouwbaarheid en privacy te waarborgen, terwijl ze het volledige potentieel van AI benutten.
Lees meer -
Ervaar AI-innovatie in het EY.ai Lab! Werk samen met multidisciplinaire teams om op maat gemaakte oplossingen te ontwikkelen die inspelen op jouw unieke bedrijfsbehoeften.
Lees meer
Verantwoord gebruik en duidelijke kaders
Kun je eens wat concreter maken op welke gebieden AI-agents worden toegepast?
Hesterman: “Dat is heel breed en bij sommige klanten zie ik tientallen use cases naast elkaar. Denk aan KYC-processen, kredietbeoordeling, maar ook HR en communicatie. De technologie is vaak niet het probleem; de uitdaging is om adoptie breed te organiseren en risico’s te beheersen.”
Fourie: “Risico’s beheersen is een belangrijk thema voor iedereen, ook voor een startup. Het is geen nieuws dat een AI-systeem kan hallucineren en dat gebruikers kunnen proberen om een agent te manipuleren, bijvoorbeeld bij chatbots die support leveren. Dat is een van onze concrete toepassingen en we hebben daar heel bewust een knop ingebouwd waarmee mensen altijd terug kunnen naar een menselijke medewerker. Die hybride aanpak beperkt de reputatierisico’s. Andere toepassingen liggen op het vlak van de vertaling die ik al noemde. Daarnaast mag ik software development niet vergeten want dat is indrukwekkend: tien engineers draaien nu zo snel sprints dat we moeite hebben om genoeg werk aan te leveren.”
Westerhof: “Wij richten ons grofweg op twee sporen. Enerzijds focussen we ons op het verbeteren van onze dienstverlening, dat noemen we Client AI. Hierbij kan je denken aan het optimaliseren en verder digitaliseren van processen zoals data-extractie en -validatie en documentverwerking, maar ook aan de interactie met alle partijen in de keten, zoals consumenten en intermediairs. Anderzijds richten we ons op het verbeteren en productiever maken van de interne organisatie, dat noemen we Servicing AI. Daarbij moeten we steeds rekening houden met de eisen van onze klanten. Sommige klanten verplichten on-premiseoplossingen, terwijl de technologie vaak cloud-first is; dat maakt het wat uitdagender.”
Agentic AI is dus veelbelovend maar ook risicovol. Hoe zorg je voor verantwoord gebruik? En welke kaders zijn nodig?
Fourie: “Wij hebben geleerd dat volledige automatisering riskant kan zijn. Toen onze chatbot alles overnam, kregen we klachten. Daarom hebben we nu zoals ik al zei altijd een mogelijkheid om terug te schakelen naar een medewerker om menselijk toezicht in te bouwen. Wat wij ook hebben geleerd is dat het goed is om het takenpakket van individuele agents klein te maken. Onze chatbot bestaat eigenlijk uit 8 agents die ieder een eigen domein bestrijken. Dat beperkt risico’s.”
Hesterman: “Herkenbaar. De hype rond agents is groot, maar enterprise-ready zijn ze vaak nog niet. De grootste waarde zit nu in taakgerichte agents die goed zijn afgebakend. Succesvol gebruik vraagt governance, monitoring en duidelijke spelregels.”
Westerhof: “Als aanvulling noem ik nog twee zaken. Ten eerste een AI-policy die aansluit bij de Europese AI-verordening. Dat betekent dat we gedurende de life cycle risk assessments uitvoeren op onze AI-usecases en onder meer regels hebben voor prompting, datagebruik, cloudgebruik en logging. Daarmee krijg je ook meer grip.”
Hesterman: “Grip is essentieel. AI-agents kunnen je maken of breken: maken omdat ze veel kansen bieden, breken omdat de risico’s groot zijn. Volledig autonome agents klinken aantrekkelijk, maar zijn nog niet volwassen genoeg voor grootschalig gebruik. Daarom adviseer ik om te beginnen met laagrisicotaken. Bouw daarmee ervaring op en schaal vervolgens in een verantwoord tempo op, in lijn met de stijgende volwassenheidsniveaus van cruciale organisatie-elementen zoals risk governance, operating model, AI-geletterdheid en een flexibel platform. Zo maak je tempo zonder in de ‘danger zone’ terecht te komen, waarin wel wordt geëxperimenteerd maar niet daadwerkelijk wordt uitgerold.”
Fourie: “Te traag handelen is ook riskant. Als je nu geen fundamentele AI-capaciteiten ontwikkelt, loop je straks achter op de concurrentie. Je moet tempo maken, maar wel gecontroleerd.”