Geschreven door: Charlie Adams, Directeur Klantervaring & Succes bij Custom Connect, gepubliceerd oktober 2025
De EU Artificial Intelligence Act (AI Act), formeel aangenomen in 2024, is de eerste allesomvattende AI-regelgeving ter wereld.
Maar de gevolgen voor contactcentra en customer experience (CX) activiteiten beginnen zich nu pas af te tekenen.
Om hier meer over te weten te komen, vroegen we CX-denker Charlie Adams om te onderzoeken wat dit betekent voor het inzetten van AI in de dagelijkse praktijk en hoe je compliance voor kunt blijven en toch de AI-gedreven transformatie kunt omarmen.
De AI-wet in het kort
De AI-wet introduceert een risicogebaseerd kader voor het classificeren en reguleren van AI-systemen in de hele EU. AI-systemen worden onderverdeeld in vier categorieën:
- Onaanvaardbaar risico - Verboden (bijv. sociaal scoren, manipulatieve AI)
- Hoog risico - Onderworpen aan strikte naleving (bijv. AI voor werknemersbeheer, prestatiebeoordeling)
- Beperkt risico - Vereist transparantie (bijv. chatbots, generatieve AI-inhoud)
- Minimaal risico - Ongereguleerd (bijv. spamfilters, AI in videogames)
Wat deze wet wereldwijd belangrijk maakt, is zijn extraterritoriale reikwijdte: hij is niet alleen van toepassing op in de EU gevestigde bedrijven, maar ook op aanbieders en gebruikers van buiten de EU wier AI-systemen gevolgen hebben voor EU-burgers.
Als uw contactcentrum of technologieleverancier de EU-markt bedient, valt u binnen het toepassingsgebied - ongeacht waar uw activiteiten zijn gevestigd.
AI met hoog risico in contactcentra
Het gebruik van AI in werkgelegenheids- en personeelsbeheer wordt onder de wet geclassificeerd als hoog risico.
Dit omvat AI die wordt gebruikt voor:
- Werving en taakverdeling
- Het gedrag van agenten bewaken
- Functieprestaties evalueren
- Beslissingen over promotie of ontslag informeren
In de context van contactcentra kunnen veel op AI gebaseerde tools voor kwaliteitsborging (QA) en prestatiebewaking - met name tools die de inhoud van gesprekken, het sentiment of gedragskenmerken beoordelen - onder deze classificatie vallen.
Onder de wet moeten aanbieders en implementeerders van AI met een hoog risico voldoen aan strenge eisen:
- Gegevensbeheer (om eerlijkheid en nauwkeurigheid te garanderen)
- Transparantie (duidelijke documentatie over hoe de AI werkt)
- Menselijk toezicht (ervoor zorgen dat beslissingen herzien kunnen worden en niet volledig geautomatiseerd zijn)
- Traceerbaarheid (gebeurtenisregistratie en controleerbaarheid)
Dit is niet zomaar een checklist - het is een fundamentele verschuiving in de manier waarop AI-systemen worden ontworpen, getest en geïmplementeerd in professionele omgevingen.
Emoties afleiden in werkomgevingen is verboden
Een van de meest besproken elementen van de AI-wet voor onze sector is het verbod op emotieherkenning op de werkplek (hoofdstuk II, artikel 5).
Tenzij het wordt gebruikt voor medische of veiligheidsdoeleinden, is het verboden om emoties af te leiden uit stem, gezichtsuitdrukkingen of gedrag in werkomgevingen (inclusief contactcentra).
Dit heeft grote gevolgen voor tools die beloven te detecteren:
- Agent frustratie
- Klanttevredenheid
- Inlevingsvermogen scores
- Beoordeling van de toon van de stem
Dit soort functies, vaak geïntegreerd in QA-systemen of realtime hulpprogramma's voor assistentie door agenten, moeten opnieuw worden geëvalueerd om ervoor te zorgen dat ze de grenzen van de regelgeving niet overschrijden.
AI-systemen met een hoog risico moeten worden begrepen door de gebruiker
AI-systemen met een hoog risico moeten ook verklaarbaar zijn - wat betekent dat elk inzicht of elke aanbeveling die iemands werk kan beïnvloeden, moet worden begrepen door de gebruiker en moet kunnen worden beoordeeld door mensen.
Dit is een directe uitdaging voor black-box AI-tools. Als je systeem coaching aanbeveelt, een prestatieprobleem markeert of een taakherschikking voorstelt, moet je:
- Documenteer hoe die conclusie tot stand is gekomen
- Ervoor zorgen dat de gegevensinvoer nauwkeurig en correct is
- Managers toestaan om aanbevelingen te negeren of te betwisten
- Communiceer duidelijk aan werknemers wanneer en hoe AI wordt gebruikt
Rekening houdend met deze principes moeten oplossingen zo worden ontworpen dat ze:
- Traceerbaar (met gebeurtenislogboeken en contextuele details)
- Coachbaar (als onderdeel van een transparant ontwikkelingstraject)
- Niet-bestraffend (prestatiegroei ondersteunen, geen discipline)
Wat als een hulpmiddel LLM's gebruikt?
Veel QA- en agentondersteunende tools zijn tegenwoordig gebouwd met AI-modellen voor algemeen gebruik, zoals grote taalmodellen (LLM's) die zijn getraind op enorme datasets.
De AI-wet introduceert nieuwe verplichtingen voor aanbieders van AI voor algemene doeleinden (GPAI), met name wanneer modellen systeemrisico's met zich meebrengen (deels gedefinieerd door de rekenkracht die wordt gebruikt bij het trainen).
Hoewel de meeste contactcentermodellen downstream gebruikers van deze modellen zijn, moeten bedrijven dat toch doen:
- Bevestigen dat hun aanbieder trainingssamenvattingen heeft gepubliceerd en voldoet aan de Auteursrechtrichtlijn
- Controleer of er technische documentatie beschikbaar is
- Ervoor zorgen dat het AI-model is getest op veiligheid en bias waar van toepassing
Als u LLM's opneemt in uw contactcenterworkflows, moet u begrijpen hoe dat model zich gedraagt - en of het u onbedoeld blootstelt aan risicovol of verboden gebruik.
Wat contactcentra nu moeten doen
Of je nu een BPO, een intern servicecentrum of een CX-technologieleverancier bent, de AI-wet betekent dat het tijd is om strenger te worden:
Uw gebruik van AI evalueren
Begin met het classificeren van je AI-systemen aan de hand van het risicoraamwerk.
Gebruik je AI om mensen te evalueren, beslissingen te nemen of processen te automatiseren?
Werk met leveranciers die zich aan de regels houden
Kies leveranciers die technische documentatie, risicobeoordelingen en human-in-the-loop opties kunnen leveren.
Communiceer transparant met werknemers
Laat je personeel weten hoe AI wordt gebruikt, vooral als het van invloed is op prestatiebeoordelingen, training of taakopdrachten.
Emotieanalyse heroverwegen
Vermijd of heroverweeg hulpmiddelen die emoties afleiden, tenzij ze duidelijk buiten het toepassingsgebied vallen of alleen worden gebruikt ter ondersteuning van niet-besluitvorming.
★★★★★
De AI-wet is een wake-up call voor CX-leiders

De AI-wet is een wake-up call - niet alleen voor compliance officers, maar ook voor CX-leiders, contactcentermanagers en technologieleveranciers.
AI is niet langer het Wilde Westen! Als het vorm geeft aan de manier waarop we mensen beoordelen, managen of motiveren, moet het dat ethisch, transparant en binnen een vertrouwenskader doen.