Que signifie réellement la loi européenne sur l'IA pour les centres de contact ?

24 novembre 2025
Que signifie réellement la loi européenne sur l'IA pour les centres de contact ?

Table des matières

Écrit par : Charlie Adams, directeur de l'expérience et de la réussite des clients chez Custom Connect, publié en octobre 2025

La loi de l'UE sur l'intelligence artificielle (AI Act), officiellement adoptée en 2024, est la première réglementation complète en matière d'IA dans le monde.

Pourtant, les répercussions sur les centres de contact et les activités liées à l'expérience client (CX) commencent à peine à être comprises.

Pour en savoir plus, nous avons demandé à Charlie Adams, leader d'opinion en matière de CX, d'explorer ce que cela signifie pour le déploiement de l'IA dans les opérations quotidiennes, et comment garder une longueur d'avance sur la conformité tout en adoptant une transformation axée sur l'IA.

La loi sur l'IA en bref

La loi sur l'IA introduit un cadre fondé sur les risques pour classer et réglementer les systèmes d'IA dans l'ensemble de l'UE. Les systèmes d'IA sont divisés en quatre catégories :

  • Risque inacceptable - Interdit (par exemple, notation sociale, IA manipulatrice)
  • Risque élevé - Soumis à une stricte conformité (par exemple, l'IA pour la gestion des travailleurs, l'évaluation des performances)
  • Risque limité - Nécessite de la transparence (par exemple, chatbots, contenu généré par l'IA)
  • Risque minimal - Non réglementé (par exemple, les filtres anti-spam, l'IA dans les jeux vidéo)

L'importance de cette loi au niveau mondial réside dans sa portée extraterritoriale : elle s'applique non seulement aux entreprises basées dans l'UE, mais aussi aux fournisseurs et utilisateurs non européens dont les systèmes d'IA affectent les citoyens de l'UE.

Si votre centre de contact ou votre fournisseur de technologie dessert le marché de l'UE, vous êtes concerné, quel que soit le lieu de vos activités.

L'IA à haut risque dans les centres de contact

L'utilisation de l'IA dans la gestion de l'emploi et de la main-d'œuvre est classée comme présentant un risque élevé en vertu de la loi.

Il s'agit notamment de l'IA utilisée pour :

  • Recrutement et répartition des tâches
  • Suivi du comportement des agents
  • Évaluer les performances professionnelles
  • Éclairer les décisions de promotion ou de licenciement

Dans le contexte des centres de contact, de nombreux outils d'assurance qualité (AQ) et de contrôle des performances basés sur l'IA - en particulier ceux qui évaluent le contenu des appels, les sentiments ou les caractéristiques comportementales - pourraient entrer dans cette catégorie.

En vertu de la loi, les fournisseurs et déployeurs d'IA à haut risque doivent satisfaire à des exigences strictes en matière de.. :

  • Gouvernance des données (pour garantir l'équité et l'exactitude)
  • Transparence (documentation claire sur le fonctionnement de l'IA)
  • Supervision humaine (veiller à ce que les décisions soient révisables et ne soient pas entièrement automatisées)
  • Traçabilité (enregistrement des événements et auditabilité)

Il ne s'agit pas d'une simple liste de contrôle, mais d'un changement fondamental dans la manière dont les systèmes d'IA sont conçus, testés et mis en œuvre dans les environnements professionnels.

Il est interdit de déduire les émotions sur le lieu de travail

L'un des éléments de la loi sur l'IA les plus discutés par notre secteur est l'interdiction de la reconnaissance des émotions sur le lieu de travail (chapitre II, article 5).

Sauf à des fins médicales ou de sécurité, il est interdit de déduire des émotions à partir de la voix, des expressions faciales ou du comportement sur le lieu de travail (y compris dans les centres de contact).

Cela a des implications majeures pour les outils qui promettent de détecter :

  • Frustration des agents
  • Satisfaction des clients
  • Score d'empathie
  • Évaluation du ton de la voix

Ces fonctions, souvent intégrées dans les systèmes d'assurance qualité ou les outils d'assistance aux agents en temps réel, doivent être réévaluées afin de s'assurer qu'elles ne dépassent pas les limites réglementaires.

Les systèmes d'IA à haut risque doivent être compris par l'utilisateur

Les systèmes d'IA à haut risque doivent également pouvoir être expliqués, ce qui signifie que chaque idée ou recommandation susceptible d'influencer le travail d'une personne doit être comprise par l'utilisateur et faire l'objet d'un examen humain.

Il s'agit là d'un défi direct pour les outils d'IA de type "boîte noire". Si votre système recommande un coaching, signale un problème de performance ou suggère une réaffectation des tâches, vous devez.. :

  • Documenter la manière dont cette conclusion a été tirée
  • Veiller à ce que les données saisies soient exactes et appropriées
  • Permettre aux responsables d'ignorer ou de contester les recommandations
  • Communiquer clairement aux employés quand et comment l'IA est utilisée

En tenant compte de ces principes, les solutions doivent être conçues pour être :

  • Traçabilité (avec journaux d'événements et détails contextuels)
  • Entraînable (dans le cadre d'un parcours de développement transparent)
  • Non punitif (soutenir la croissance des performances, et non la discipline)

Que se passe-t-il si un outil utilise des LLM ?

De nombreux outils d'assurance qualité et d'assistance à l'agent sont aujourd'hui conçus à partir de modèles d'IA à usage général, tels que les grands modèles de langage (LLM) formés sur de vastes ensembles de données.

La loi sur l'IA introduit de nouvelles obligations pour les fournisseurs d'IA à usage général (GPAI), en particulier lorsque les modèles présentent des risques systémiques (définis en partie par le calcul utilisé dans la formation).

Bien que la plupart des plateformes de centres de contact soient des utilisateurs en aval de ces modèles, les entreprises devraient tout de même les utiliser :

  • Confirmer que leur fournisseur a publié des résumés de formation et qu'il se conforme à la directive sur les droits d'auteur.
  • Vérifier que la documentation technique est disponible
  • S'assurer que le modèle d'IA a été testé en termes de sécurité et de partialité, le cas échéant.

Si vous intégrez des LLM dans les flux de travail de votre centre de contact, vous devez comprendre comment ce modèle se comporte - et s'il peut, par inadvertance, vous exposer à un risque élevé ou à une utilisation interdite.

Ce que les centres de contact doivent faire maintenant

Que vous soyez un BPO, un centre de services internes ou un fournisseur de technologies CX, la loi sur l'IA signifie qu'il est temps de se resserrer :

Évaluez votre utilisation de l'IA

Commencez par classer vos systèmes d'IA à l'aide du cadre de risque.

Utilisez-vous l'IA pour évaluer les personnes, prendre des décisions ou automatiser des processus ?

Travailler avec des fournisseurs conformes

Choisissez des fournisseurs qui peuvent fournir une documentation technique, des évaluations des risques et des options d'intervention humaine dans la boucle.

Communiquer de manière transparente avec les employés

Faites savoir à votre personnel comment l'IA est utilisée, en particulier si elle affecte les évaluations des performances, la formation ou l'attribution des tâches.

Repenser l'analyse des émotions

Évitez ou réévaluez les outils qui déduisent les émotions, à moins qu'ils ne soient clairement hors du champ d'application ou qu'ils ne soient utilisés qu'à des fins d'aide non décisionnelle.

★★★★★

La loi sur l'IA est un signal d'alarme pour les responsables CX

Charlie Adams, directeur de l'expérience et de la réussite des clients chez Custom Connect
Charlie Adams

La loi sur l'IA est un signal d'alarme, non seulement pour les responsables de la conformité, mais aussi pour les responsables CX, les gestionnaires de centres de contact et les fournisseurs de technologie.

L'IA n'est plus le Far West ! Si elle influence la manière dont nous évaluons, gérons ou motivons les gens, elle doit le faire de manière éthique, transparente et dans un cadre de confiance.

Vous voulez entendre d'autres témoignages de clients ?

Découvrez comment les grandes marques établissent de meilleurs dialogues avec Custom Connect.