Customize this title in frenchLa décision de la plus haute cour de l’UE sème le trouble pour les algorithmes de notation

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

La Cour de justice de l’UE (CJUE) a statué jeudi (7 décembre) que la prise de décision par des systèmes de notation utilisant des données personnelles est illégale, un jugement qui pourrait avoir des retombées importantes sur la sécurité sociale et les agences de crédit.

Des années après l’entrée en vigueur du Règlement général sur la protection des données (RGPD) de l’UE, la Cour de justice de l’UE (CJUE) a rendu son premier arrêt sur l’article sur la prise de décision individuelle automatisée.

« Cette décision de la CJUE clarifie que le RGPD contient une interdiction de soumettre des personnes à une prise de décision automatisée ayant un impact significatif sur elles », a expliqué Gabriela Zanfir-Fortuna, vice-présidente pour la confidentialité mondiale au Forum sur l’avenir de la vie privée, a expliqué à Euractiv.

Entre 2018 et 2021, un scandale a éclaté aux Pays-Bas – conduisant finalement à la démission du troisième gouvernement de Mark Rutte – en raison d’un algorithme défectueux d’évaluation des risques qui a conduit les autorités fiscales à accuser à tort des milliers de personnes d’avoir fraudé un système d’allocations de garde d’enfants.

Jeudi, la Cour a statué que tout type de notation automatisée est interdit s’il a un impact significatif sur la vie des personnes. Le verdict concerne la SCHUFA, la plus grande agence de crédit privée d’Allemagne, qui évalue les personnes en fonction de leur solvabilité à l’aide d’un score.

Selon le jugement, le scoring de SCHUFA viole le RGPD si les clients de SCHUFA – comme les banques – lui attribuent un rôle « décisif » dans leurs décisions contractuelles.

Cette décision pourrait avoir des conséquences considérables. En France, la Caisse nationale d’allocations familiales (CNAF) utilise depuis 2010 un algorithme automatisé d’évaluation des risques pour lancer des inspections à domicile en cas de soupçons de fraude potentiels.

Le Monde et Rapports de phare a rapporté que l’algorithme d’exploration de données de la CNAF analyse et note 13,8 millions de ménages chaque mois pour prioriser les contrôles.

L’algorithme de data mining de la CNAF utilise une quarantaine de critères basés sur des données personnelles sur lesquels est attribué un coefficient de risque attribuant une note mensuelle à tous les bénéficiaires entre 0 et 1. Plus le score des bénéficiaires est proche de 1, plus ils ont de chances de bénéficier d’une inspection de leur logement.

Bastien Le Querrec, juriste au groupe de défense La Quadrature du Net, a déclaré à Euractiv : « Le fait que la Caisse nationale d’allocations familiales utilise un système de notation automatique pour tous ses bénéficiaires, et compte tenu de l’importance cruciale de ce score dans le processus ultérieur, ce score, de l’avis de la Quadrature du Neta des implications significatives sur la vie des personnes et devrait donc relever du champ d’application de la décision de la CJUE.»

En d’autres termes, le système de notation serait illégal sauf autorisation expresse de la loi française et dans le strict respect des règles européennes de protection des données.

Le député centriste français et membre de la CNIL, Philippe Latombe, a déclaré à Euractiv qu’il considérait l’algorithme de la CNAF comme un simple système d’évaluation des risques, filtrant les personnes en fonction de leurs données, qui manipule des données personnelles en raison de la finalité de l’organisation : délivrer des allocations aux personnes. personnes dans le besoin.

« Si chaque critère pris séparément peut paraître logique dans le cadre de la lutte contre la fraude, la somme des critères pourrait s’avérer discriminatoire s’ils sont corrélés », poursuit Latombe.

En savoir plus avec EURACTIV



Source link -57