Waarom geeft een AI-agent het verkeerde antwoord, terwijl de kennis klopt?

Je AI-agent geeft het verkeerde antwoord. En de oorzaak zit vaak niet in de technologie.

Wat er gebeurt

Stel: een klant meldt een defect product. In de knowledge base staat: "Controleer of de klant recht heeft op garantie."

Voor een medewerker is dat duidelijk. Die weet uit ervaring welke checks daarbij horen en welke uitzonderingen relevant zijn. Voor een AI-agent is dat niet genoeg. Die zin beschrijft een uitkomst, geen proces.

Een ervaren medewerker vult automatisch in wat er tussen de regels staat:

Maar dat is geen kennis die mensen lezen. Het is kennis die ze al hebben. En precies daar ontstaat het probleem.

Waarom het misgaat

Een AI-agent heeft geen ervaring om op terug te vallen. Geen onderbuikgevoel. Geen collega om iets bij te verifiëren. De AI voert uit wat er staat. Als de instructie luidt: "controleer garantie", zonder uit te leggen hoe, dan moet de AI zelf gaan interpreteren. Soms gaat dat goed. Soms niet. En juist dan krijg je verkeerde antwoorden, terwijl de onderliggende informatie op zichzelf gewoon klopt.

Wat AI-geschikte kennis anders doet

De oplossing is meestal niet nieuwe informatie toevoegen, maar bestaande kennis anders structureren. Alles wat een ervaren medewerker impliciet weet, moet expliciet worden gemaakt:

Geen interpretatie. Geen aannames. Geen gaten.

De les

Je knowledge base is niet verkeerd. Maar hij is vaak geschreven voor mensen. Mensen vullen aan wat er niet staat. AI-agents niet. Wie AI goed wil laten presteren in customer service, moet kennis niet alleen correct maken, maar ook expliciet, ondubbelzinnig en uitvoerbaar.

AI start met kennis.


Benieuwd hoe klaar jouw team is voor AI? Doe de gratis AI Readiness Scan.