Was bedeutet das EU-KI-Gesetz wirklich für Contact Center?

24. November 2025
Was bedeutet das EU-KI-Gesetz wirklich für Contact Center?

Inhaltsübersicht

Geschrieben von: Charlie Adams, Director of Customer Experience & Success bei Custom Connect, veröffentlicht im Oktober 2025

Das EU-Gesetz über künstliche Intelligenz (KI-Gesetz), das 2024 formell verabschiedet wird, ist die erste umfassende KI-Verordnung der Welt.

Doch die Auswirkungen auf Contact Center und Customer Experience (CX)-Aktivitäten werden gerade erst erkannt.

Um mehr darüber zu erfahren, haben wir den CX-Vordenker Charlie Adams gebeten, zu erkunden, was dies für den Einsatz von KI im Tagesgeschäft bedeutet und wie man der Einhaltung von Vorschriften einen Schritt voraus ist und gleichzeitig eine KI-gesteuerte Transformation in Angriff nimmt.

Das AI-Gesetz in Kürze

Mit dem KI-Gesetz wird ein risikobasierter Rahmen für die Klassifizierung und Regulierung von KI-Systemen in der EU eingeführt. KI-Systeme werden in vier Kategorien eingeteilt:

  • Unannehmbares Risiko - Verboten (z. B. soziales Scoring, manipulative KI)
  • Hohes Risiko - Strenge Einhaltung der Vorschriften (z. B. KI für die Verwaltung der Arbeitnehmer, Leistungsbewertung)
  • Begrenztes Risiko - Erfordert Transparenz (z. B. Chatbots, generative KI-Inhalte)
  • Minimales Risiko - Unreguliert (z. B. Spamfilter, KI in Videospielen)

Was dieses Gesetz weltweit bedeutsam macht, ist sein extraterritorialer Geltungsbereich: Es gilt nicht nur für in der EU ansässige Unternehmen, sondern auch für Anbieter und Nutzer außerhalb der EU, deren KI-Systeme EU-Bürger betreffen.

Wenn Ihr Kontaktzentrum oder Ihr Technologieanbieter den EU-Markt bedient, fallen Sie in den Geltungsbereich - unabhängig davon, wo sich Ihr Unternehmen befindet.

Hochriskante KI in Contact Centern

Der Einsatz von KI in der Beschäftigungs- und Personalverwaltung wird im Rahmen des Gesetzes als hohes Risiko eingestuft.

Dazu gehört auch die KI, die für:

  • Rekrutierung und Aufgabenverteilung
  • Überwachung des Agentenverhaltens
  • Bewertung der Arbeitsleistung
  • Entscheidungen über Beförderung oder Kündigung

Im Kontext des Contact Centers könnten viele KI-basierte Qualitätssicherungs- und Leistungsüberwachungs-Tools - insbesondere solche, die Anrufinhalte, Stimmungen oder Verhaltensmerkmale bewerten - unter diese Klassifizierung fallen.

Das Gesetz sieht vor, dass Anbieter und Betreiber von Hochrisiko-KI strenge Anforderungen erfüllen müssen:

  • Datenverwaltung (um Fairness und Genauigkeit zu gewährleisten)
  • Transparenz (klare Dokumentation, wie die KI funktioniert)
  • Human Oversight (Sicherstellung, dass Entscheidungen überprüfbar und nicht vollständig automatisiert sind)
  • Rückverfolgbarkeit (Ereignisprotokollierung und Auditierbarkeit)

Dabei handelt es sich nicht nur um eine Checkliste, sondern um einen grundlegenden Wandel in der Art und Weise, wie KI-Systeme entwickelt, getestet und in professionellen Umgebungen implementiert werden.

Das Ableiten von Emotionen in der Arbeitswelt ist verboten

Eines der am meisten diskutierten Elemente des AI-Gesetzes für unsere Branche ist das Verbot der Emotionserkennung am Arbeitsplatz (Kapitel II, Artikel 5).

Sofern es nicht für medizinische oder sicherheitstechnische Zwecke verwendet wird, ist das Ableiten von Emotionen aus der Stimme, der Mimik oder dem Verhalten in Arbeitsumgebungen (einschließlich Kontaktzentren) verboten.

Dies hat erhebliche Auswirkungen auf die Instrumente, die eine Aufdeckung versprechen:

  • Agentenfrustration
  • Kundenzufriedenheit
  • Empathie-Werte
  • Bewertungen des Tonfalls

Diese Art von Funktionen, die häufig in QS-Systeme oder Echtzeit-Agententools integriert sind, müssen neu bewertet werden, um sicherzustellen, dass sie nicht gegen die gesetzlichen Bestimmungen verstoßen.

Hochriskante KI-Systeme müssen vom Benutzer verstanden werden

KI-Systeme mit hohem Risiko müssen auch erklärbar sein, d. h. jede Erkenntnis oder Empfehlung, die sich auf die Arbeit einer Person auswirken könnte, muss vom Nutzer verstanden werden und einer menschlichen Überprüfung zugänglich sein.

Dies ist eine direkte Herausforderung für Blackbox-KI-Tools. Wenn Ihr System ein Coaching empfiehlt, ein Leistungsproblem anzeigt oder eine Neuzuweisung von Aufgaben vorschlägt, müssen Sie das tun:

  • Dokumentieren Sie, wie Sie zu dieser Schlussfolgerung gekommen sind.
  • Sicherstellen, dass die Dateneingaben korrekt und angemessen sind
  • Managern die Möglichkeit geben, Empfehlungen zu überstimmen oder anzufechten
  • Den Mitarbeitern klar kommunizieren, wann und wie AI eingesetzt wird

Unter Berücksichtigung dieser Grundsätze müssen die Lösungen so gestaltet sein, dass sie es sind:

  • Rückverfolgbar (mit Ereignisprotokollen und kontextbezogenen Details)
  • Trainierbar (als Teil einer transparenten Entwicklungsreise)
  • Nicht strafende Maßnahmen (Förderung der Leistungssteigerung, nicht der Disziplin)

Was ist, wenn ein Werkzeug LLMs verwendet?

Viele QA- und Agent-Assist-Tools werden heute auf der Grundlage von KI-Modellen für allgemeine Zwecke entwickelt, wie z. B. großen Sprachmodellen (LLMs), die auf umfangreichen Datensätzen trainiert wurden.

Das KI-Gesetz führt neue Verpflichtungen für Anbieter von allgemeiner KI (GPAI) ein, insbesondere dann, wenn die Modelle systemische Risiken darstellen (die zum Teil durch die für das Training verwendeten Berechnungen definiert werden).

Die meisten Contact-Center-Plattformen sind zwar nachgelagerte Nutzer dieser Modelle, aber Unternehmen sollten sie dennoch nutzen:

  • Bestätigen Sie, dass Ihr Anbieter Zusammenfassungen der Ausbildung veröffentlicht hat und die Urheberrechtsrichtlinie einhält.
  • Prüfen Sie, ob die technische Dokumentation verfügbar ist.
  • Sicherstellen, dass das KI-Modell auf Sicherheit und ggf. Verzerrungen getestet wurde

Wenn Sie LLMs in Ihre Contact Center-Workflows einbinden, müssen Sie verstehen, wie sich dieses Modell verhält - und ob es Sie unbeabsichtigt einem hohen Risiko oder einer verbotenen Nutzung aussetzen könnte.

Was Kontaktzentren jetzt tun sollten

Egal, ob Sie ein BPO, ein internes Servicecenter oder ein CX-Tech-Anbieter sind, das KI-Gesetz bedeutet, dass es an der Zeit ist, sich zu straffen:

Evaluieren Sie Ihren Einsatz von AI

Beginnen Sie mit der Klassifizierung Ihrer KI-Systeme anhand des Risikorahmens.

Nutzen Sie KI, um Menschen zu bewerten, Entscheidungen zu treffen oder Prozesse zu automatisieren?

Arbeiten Sie mit konformen Anbietern

Wählen Sie Anbieter, die technische Dokumentation, Risikobewertungen und Human-in-the-Loop-Optionen anbieten können.

Transparente Kommunikation mit den Mitarbeitern

Informieren Sie Ihre Mitarbeiter darüber, wie KI eingesetzt wird, insbesondere wenn sie sich auf Leistungsbewertungen, Schulungen oder Aufgabenzuweisungen auswirkt.

Emotionsanalyse neu überdenken

Vermeiden Sie Instrumente, die auf Emotionen schließen, oder bewerten Sie sie neu, es sei denn, sie sind eindeutig nicht geeignet oder werden nur zur Unterstützung von Nicht-Entscheidungsprozessen eingesetzt.

★★★★★

Das KI-Gesetz ist ein Weckruf für CX-Führungskräfte

Charlie Adams, Direktor für Kundenerfahrung und Erfolg bei Custom Connect
Charlie Adams

Das KI-Gesetz ist ein Weckruf - nicht nur für Compliance-Beauftragte, sondern auch für CX-Führungskräfte, Contact Center Manager und Technologieanbieter.

KI ist nicht mehr der Wilde Westen! Wenn sie die Art und Weise beeinflusst, wie wir Menschen einschätzen, verwalten oder motivieren, muss sie dies auf ethische und transparente Weise und in einem Rahmen des Vertrauens tun.

Möchten Sie weitere Kundengeschichten hören?

Entdecken Sie, wie führende Marken mit Custom Connect bessere Dialoge aufbauen.