Hallucination
Wat is Hallucination?
Een hallucinatie is wanneer een AI-model iets verzint dat niet klopt, maar het presenteert alsof het waar is. Het model ‘liegt’ niet bewust — het genereert tekst op basis van statistische patronen en soms leidt dat tot plausibel klinkende maar feitelijk onjuiste informatie.
Dit is een van de grootste risico’s van generatieve AI. Een model kan met volle overtuiging een wetsartikel citeren dat niet bestaat, een statistiek noemen die verzonnen is of een procedure beschrijven die niet klopt. En het doet dit zonder waarschuwing.
De oorzaken zijn divers: het model heeft de juiste informatie niet in zijn training gehad, de vraag is ambigu, of het model ‘vult aan’ waar het geen zeker antwoord heeft. Het is geen bug die gefixed kan worden, maar een fundamentele eigenschap van hoe taalmodellen werken.
De oplossing? RAG (antwoorden baseren op echte bronnen), human-in-the-loop (menselijke controle op kritieke momenten) en guardrails (het model instrueren om ‘ik weet het niet’ te zeggen in plaats van te gokken).
Voorbeeld uit de praktijk
Een juridisch AI-systeem wordt gevraagd naar jurisprudentie over een specifiek onderwerp. Het genereert drie uitspraken met zaaknummers, data en samenvattingen. Twee blijken niet te bestaan. Zonder menselijke verificatie had een jurist deze fictieve uitspraken in een processtuk kunnen gebruiken.
Wat betekent dit voor jouw organisatie?
Agentech bouwt altijd controles in om hallucinaties te voorkomen of te detecteren. Van RAG voor bronverificatie tot human-in-the-loop voor kritieke beslissingen — betrouwbaarheid is niet optioneel.
