Explainable AI XAI
Wat is Explainable AI?
Explainable AI (XAI) is AI die kan uitleggen waarom het tot een bepaalde conclusie of beslissing is gekomen. In plaats van een zwarte doos die een antwoord geeft zonder uitleg, laat XAI zien welke factoren hebben meegewogen en hoe de conclusie tot stand kwam.
Dit is belangrijk om meerdere redenen. Ten eerste: vertrouwen. Als een medewerker niet begrijpt waarom de AI iets adviseert, zal die het advies negeren of blind opvolgen. Beide zijn problematisch. Ten tweede: compliance. De AI Act vereist voor hoog-risico toepassingen dat je kunt uitleggen hoe beslissingen tot stand komen. Ten derde: verbetering. Als je niet begrijpt waarom het model iets doet, kun je het ook niet verbeteren.
In de praktijk kan XAI variëren van simpel (het model geeft een confidence score bij elke beslissing) tot uitgebreid (het model toont welke woorden of factoren het zwaarst meewogen).
Voor bedrijfsautomatisering is een middenweg vaak het meest praktisch: het systeem geeft een helder advies met een korte onderbouwing, zodat een mens snel kan beoordelen of het klopt.
Voorbeeld uit de praktijk
Een bank gebruikt AI om verdachte transacties te flaggen. In plaats van alleen 'verdacht: ja/nee' geeft het systeem een uitleg: 'deze transactie is gemarkeerd omdat het bedrag 5x hoger is dan gebruikelijk, het een nieuw rekeningnummer betreft en de transactie buiten kantooruren plaatsvond'. De compliance officer kan nu gericht beoordelen.
Wat betekent dit voor jouw organisatie?
Agentech bouwt AI-oplossingen die uitlegbaar zijn. Niet als luxe maar als standaard. Want een automatisering die niemand begrijpt, wordt door niemand vertrouwd.
