Een van de fundamentele spanningen bij het inzetten van AI in klantenservice is het gebrek aan transparantie: de AI neemt een beslissing of geeft een antwoord, maar het is onduidelijk op basis waarvan. Dit is niet alleen een technisch probleem — het is ook een complianceprobleem. De AVG stelt in artikel 22 dat geautomatiseerde besluitvorming met aanzienlijke gevolgen voor mensen uitgelegd moet kunnen worden. AI Assistent geeft u volledig inzicht.
Elk antwoord dat de AI geeft, is terug te herleiden tot een bron. Wanneer de bot een vraag beantwoordt op basis van een kennisbankartikel, wordt vermeld welk artikel is gebruikt en welk passage als meest relevant werd beschouwd. Antwoorden gebaseerd op gescande websitecontent tonen de URL van de bronpagina. Dit maakt het voor uw medewerkers eenvoudig om de juistheid van een antwoord te verifiëren en voor klanten om antwoorden te controleren.
Het platform biedt een volledig auditlog van alle AI-beslissingen. U kunt per gesprek terugkijken welke kennisbronnen zijn geraadpleegd, welke alternatieven zijn overwogen, hoe de AI de urgentie van een ticket heeft bepaald en waarom een bepaalde route is gekozen. Dit log is doorzoekbaar, exporteerbaar en beschikbaar voor de compliance-periode die voor uw sector van toepassing is.
Wanneer de AI een antwoord met lage zekerheid geeft — bijvoorbeeld omdat de vraag buiten de kennisbasis valt of ambigue is — wordt dit expliciet aangegeven. Medewerkers zien een betrouwbaarheidsscore naast elk AI-gegenereerd conceptantwoord. Lage scores triggeren automatisch een review-vlag. Dit voorkomt dat onzekere AI-antwoorden zonder controle bij klanten terechtkomen en bouwt het vertrouwen van uw team in het systeem op.