Das europäische KI-Gesetz und der Kundenservice: Warum dies jetzt im Jahr 2026 wichtig ist
Die europäische KI-Verordnung (AI Act) führt zu einer grundlegenden Veränderung hinsichtlich der Gestaltung, Regulierung und Nutzung künstlicher Intelligenz im Kundenservice.
Für Unternehmen, die Sprachassistenten, dialogorientierte KI, Sprachanalyse oder automatisierte Weiterleitung einsetzen, ist Compliance nicht mehr nur eine rechtliche Frage, sondern wird zu einer Frage des Designs und der Systemarchitektur.
Anstatt sich ausschließlich auf die Modellleistung zu konzentrieren, schafft die Verordnung einen risikobasierten Rahmen, der Transparenz, menschliche Aufsicht und den Schutz der Grundrechte in den Vordergrund stellt.
Was ändert sich und wann?
Für Kundenservice und Kontaktzentren sind mehrere Bestimmungen besonders relevant:
Ab Februar 2025
Obligatorische KI-Kenntnisse für Organisationen, die KI-Systeme einsetzen
Ein Verbot bestimmter unzulässiger Praktiken, darunter die gezielte Nutzung von Emotionserkennung in arbeitsbezogenen Kontexten
Strengere Beschränkungen für irreführendes oder manipulatives KI-Verhalten
Ab August 2026
Ausdrückliche Transparenzpflichten, einschließlich der Information der Nutzer, wenn sie mit einem KI-System interagieren
Zusätzliche Anforderungen für Systeme, die Emotionen erkennen oder darauf angewiesen sind
Kennzeichnungspflichten für bestimmte Kategorien von KI-generierten Inhalten
Diese Meilensteine gelten unabhängig davon, ob KI in Sprach-, Chat- oder Hybridkanälen eingesetzt wird.
Der entscheidende Punkt: End-to-End-Modelle und Emotionserkennung
Eine der wichtigsten und oft unterschätzten Auswirkungen des KI-Gesetzes betrifft End-to-End-KI-Modelle, die in Sprachanwendungen verwendet werden.
Viele moderne Sprachsysteme leiten Merkmale wie Stimmung, Stress oder emotionalen Zustand direkt aus Audiosignalen ab. Gemäß dem EU-KI-Gesetz gilt die Erkennung von Emotionen anhand biometrischer Signale (einschließlich Stimme) in bestimmten Kontexten, insbesondere am Arbeitsplatz und im Kundenservice, als risikoreich oder verboten.
Dies führt zu konkreten Herausforderungen hinsichtlich der Einhaltung von Vorschriften:
Emotionserkennung kann implizit erfolgen, auch wenn sie kein explizites Produktmerkmal ist.
End-to-End-Modelle können es schwierig machen, emotionsbezogene Verarbeitungsprozesse zu isolieren, zu deaktivieren oder zu dokumentieren.
Transparenz und Erklärbarkeit werden schwieriger, wenn aus Roh-Audiodaten mehrere Schlussfolgerungen generiert werden.
Daher müssen Unternehmen verstehen, was ihre Modelle extrahieren, und nicht nur, wozu sie entwickelt wurden.
Was dies für Kundendienstteams bedeutet
Die meisten Kundendienstleiter sind bereits vorsichtig in Bezug auf die Einhaltung von Vorschriften. Der AI Act verstärkt diese Vorsicht und dehnt sie auf technische und operative Entscheidungen aus.
Zu den wichtigsten Auswirkungen gehören:
Engere Zusammenarbeit zwischen Rechts-, Compliance-, CX- und technischen Teams
Klare Dokumentation der Fähigkeiten, Einschränkungen und abgeleiteten Eigenschaften der KI
Sorgfältige Bewertung von Anbietern, insbesondere solchen, die undurchsichtige End-to-End-Modelle anbieten
Stärkere Betonung der menschlichen Aufsicht und Eskalationswege
Compliance ist nicht mehr etwas, das „nachträglich hinzugefügt“ werden kann, sondern muss von Anfang an in die Systemarchitektur und das Konversationsdesign integriert werden.
Ein Moment, um KI in der Dienstleistungserbringung zu professionalisieren
Wir bei AssistYou sehen den AI Act als Chance, die Reife der KI im Kundenservice zu erhöhen.
Klare Regeln ermöglichen die Gestaltung von Systemen, die für Kunden, Vertreter und Aufsichtsbehörden gleichermaßen transparent, vorhersehbar und vertrauenswürdig sind.
KI, die Grenzen respektiert, versteckte Schlussfolgerungen vermeidet und dem Menschen die Kontrolle überlässt, ist nicht nur konform.
Es ist eine bessere KI.
