EY verwijst naar de wereldwijde organisatie en kan verwijzen naar een of meer van de lidfirma's van Ernst & Young Global Limited, die elk een afzonderlijke juridische entiteit zijn. Ernst & Young Global Limited, een Britse vennootschap met beperkte aansprakelijkheid, verleent geen diensten aan cliënten.
Hoe EY kan helpen
-
Ontdek hoe Responsible AI organisaties helpt om eerlijkheid, betrouwbaarheid en privacy te waarborgen, terwijl ze het volledige potentieel van AI benutten.
Lees meer -
Wij helpen vertrouwen op te bouwen in de data, technologie en processen die de infrastructuur van uw AI-ecosysteem vormen. Meer informatie.
Lees meer
Hallucination is not a bug, it’s a feature. Zoals bij veel beroemde quotes is ook in dit geval niet met zekerheid te zeggen wie deze wijsheid als eerste de wereld in hielp. Maar het is er wel een om in de oren te knopen voor iedereen die professioneel nadenkt over hoe je verantwoord kunt omgaan met AI (agents).
Naast dat AI-modellen veel kansen kunnen bieden (bijvoorbeeld productiviteit, kostenreductie en procesoptimalisatie), kunnen deze soms de plank ook misslaan en zomaar iets (deels) verzinnen. Zelfs als je ze vraagt hun redenering uit te leggen – om ze zo te monitoren – kunnen ze de bouwstenen van die redenering uit de duim zuigen. Met andere woorden: AI-modellen hallucineren zelfs als de data errorfree is. En hallucineren is niet een eenvoudig te verhelpen bug, maar vloeit voort uit de wijze van beloning in benchmarks (bijvoorbeeld voor bluffen wel een rating en geen rating voor I don’t knows), de ‘verplichting’ om zo snel mogelijk te antwoorden, als een feature gezien te worden (behavioral calibration) en het fundamentele verschil tussen AI en klassieke software. Klassieke software volgt deterministische logica: als X, dan Y. Een AI-model daarentegen schat kansen in en kiest de meest waarschijnlijke uitkomst; het werkt probabilistisch. Op dezelfde vraag kan het vandaag een ander antwoord geven dan morgen: de consistentie is vaak ver te zoeken. Dat kan verstrekkende gevolgen hebben. Zo zijn er gevallen bekend van AI-agents die op eigen houtje (goedbedoeld) een stukje code schreven om taken uit te voeren die hun menselijke maker helemaal niet had bedoeld.