Customize this title in frenchCela va trop loin : l’utilisation de l’IA dans les centres d’appels est controversée

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Wer sich mit Fragen oder Beschwerden telefonisch an eine Firma wendet, landet in der Regel nicht bei einem Sachbearbeiter, sondern in einem Callcenter. Und umgekehrt werden Kunden immer wieder von Callcentern angerufen. Per sogenannter Kaltakquise versuchen die Mitarbeiter zum Beispiel, neue Mobilfunkverträge zu verkaufen, oder werben für ein Upgrade eines bestehenden Vertrags. Sattsam bekannt ist bei solchen Anrufen der Satz: „Dieser Anruf wird zur Verbesserung der Servicequalität aufgezeichnet.“ Im Nachgang sollen die Servicemitarbeiter anhand der mitgeschnittenen Telefonate geschult und die Angebote „optimiert“ werden. Was die Callcenter aber oft verschweigen: Mittlerweile kommt auch KI zum Einsatz. Die analysiert schon während des Gesprächs, wie der Teilnehmer etwa auf die Angebote des Callcenter-Mitarbeiters reagiert. Emojis zeigen ihm auf einem Display an, wenn der Kunde oder die Kundin wütend oder ungeduldig wird, verunsichert wirkt oder geduldig und freundlich zuhört. Aber nicht nur die Kunden sind im Visier der KI: Parallel analysiert sie, wie der Callcenter-Mitarbeiter selbst auf die Stimmung am anderen Ende der Leitung reagiert. „Emotionserkennung“ heißt das.

KI im Callcenter: Totalüberwachung droht

Beide Varianten der Analyse sind rechtlich höchst umstritten. Einer Untersuchung des Bayerischen Rundfunks (BR) Selon les centres d’appels, les centres d’appels font valoir auprès de leurs clients qu’ils ont préalablement accepté l’enregistrement de l’appel. Mais certains délégués à la protection des données ne sont pas d’accord : l’annonce mentionne uniquement une évaluation « pour vérifier et améliorer la qualité de nos services ». Selon une étude du BR, le professeur Lena Rudkowski de l’université de Giessen considère que cela est « juridiquement problématique », car les appelants ne peuvent pas savoir comment la conversation sera évaluée. La reconnaissance des émotions est quelque chose « auquel le client ne doit pas s’attendre ». Et qu’en est-il de l’analyse des employés des centres d’appels ? Peter Wedde, professeur de droit à l’Université des sciences appliquées de Francfort, souligne que les employeurs ne sont autorisés à traiter les données de leurs propres collaborateurs que si cela est absolument nécessaire. Cependant, l’analyse des émotions « permet d’avoir un aperçu approfondi de la personnalité ». Au sens le plus large, il s’agit de données de santé dont le traitement est soumis à des exigences extrêmement strictes. On pourrait même parler ici de surveillance totale.

KI-Einsatz: Datenschützer sind alarmiert

Das unterstützt auch Thomas Fuchs, Datenschutzbeauftragter für Hamburg: „Stimmanalysen per KI bei Callcenter-Telefonaten sind nur mit ausdrücklicher Einwilligung der Gesprächsteilnehmer möglich. Vor der Einwilligung müsste eine transparente Information über das eingesetzte System erfolgen. Bei abhängig Beschäftigten wird eine solche Einwilligung in der Regel am Erfordernis der Freiwilligkeit scheitern“, so Fuchs gegenüber COMPUTER BILD. Neue Gesetze müssen her! Fuchs hofft auf einen klaren gesetzlichen Rahmen: „Deswegen kommt der KI-Verordnung, die gerade in der EU final verhandelt wird, hohe Bedeutung zu“, so der Datenschützer. Auch das geplante deutsche Beschäftigtendatenschutzgesetz solle Regeln zum KIEinsatz in Unternehmen enthalten. Bis diese wichtigen Anpassungen in Kraft sind, müsse man die DSGVO konsequent auf KI-Anwendungen anwenden.

Source link -57