Customize this title in frenchÀ l’approche du vote sur la loi sur l’IA, l’UE doit tracer une ligne rouge sur la surveillance raciste

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Par Sarah Chander, conseillère politique principale, EDRi, et Alyna Smith, directrice adjointe, PICUM

La loi sur l’intelligence artificielle de l’UE, communément appelée loi sur l’IA, est le premier du genre.

Non seulement ce sera un jalon en tant que première législation contraignante sur l’IA dans le monde, mais c’est aussi l’une des premières lois axées sur la technologie à aborder de manière significative la façon dont les technologies perpétuent le racisme structurel.

De l’impact racialement discriminatoire de systèmes de police prédictifs à l’utilisation de systèmes d’IA pour étiqueter à tort des personnes (principalement racialisées) comme fraudeurs lors de la demande de prestationscette législation est profondément éclairée par une prise de conscience croissante de la façon dont la technologie peut perpétuer les dommages.

Les législateurs ont pris des mesures qui interdiraient certaines utilisations de l’IA lorsqu’elles sont « incompatibles avec les droits fondamentaux ». C’est le cas de certaines utilisations de la reconnaissance faciale pour identifier les personnes dans les lieux publics et les systèmes d’IA utilisés pour prédire où et par qui les crimes peuvent se produire.

Les négociateurs du Parlement européen s’abstiennent cependant de reconnaître les dommages spécifiques qui surviennent lorsque les systèmes d’IA sont utilisés dans le contexte de la migration.

L’IA en tant qu’agent d’immigration

Des détecteurs de mensonges IA et du « profilage des risques » IA utilisés dans une multitude de procédures d’immigration à la étendre la surveillance technologique aux frontières de l’Europeles systèmes d’IA sont de plus en plus une caractéristique de l’approche de l’UE en matière de migration.

L’IA est utilisée pour faire prédictions et évaluations sur les personnes dans leurs demandes de migration basées sur des critères opaques difficiles à connaître et plus difficiles à contester.

En Europe, il est déjà prévu d’utiliser des algorithmes pour évaluer les « profils de risque » de tous les visiteurs – dans un contexte où il est prouvé que les décisions en matière de visa reflètent des antécédents de discrimination enracinée dans le colonialisme.

Les systèmes d’IA font également partie d’un appareil de surveillance généralisé en constante expansion. Cela comprend l’IA pour la surveillance à la frontière et les systèmes d’analyse prédictive pour prévoir les tendances migratoires.

Selon le Border Violence Monitoring Network, nous constatons déjà des cas d’utilisation de technologies d’intelligence artificielle dans les refoulements assimilables à des disparitions forcées.

Dans ce contexte, il existe un réel danger que des prévisions apparemment inoffensives sur les schémas migratoires soient utilisées pour faciliter les refoulements, les retraits et d’autres moyens d’empêcher les personnes d’exercer leur droit de demander l’asile.

L’ethnicité et la couleur de la peau deviennent un indicateur du statut d’immigration

Pour les personnes déjà en Europe, la technologie est exploitée par la police locale de manière à augmenter le nombre de personnes identifiées comme sans papiers lors des interpellations policières, perpétuant ainsi le profilage racial.

En France, en Allemagne, aux Pays-Bas et en Suède, la police a été donné le pouvoir de prendre les empreintes digitales des gens ils s’arrêtent dans la rue pour vérifier leur statut d’immigration.

Des organisations locales de défense des droits de l’homme ont contesté un programme grec équipant la police d’appareils intelligents pour scanner le visage des gens dans le but d’identifier les sans-papiers.

Étant donné que la race, l’origine ethnique et la couleur de la peau sont souvent utilisées par les autorités comme indicateur du statut d’immigrationces tendances entraîneront plus d’interpellations dans nos communautés (et le harcèlement et les opportunités de mauvais traitements qui y sont associés) des personnes racialisées – citoyens et non-citoyens.

L’utilisation croissante de l’IA dans le contexte de l’immigration expose les personnes de couleur à plus de surveillance, à une prise de décision plus discriminatoire dans les demandes d’immigration et à un profilage plus préjudiciable (par des logiciels et par des humains), exacerbant les tendances à la criminalisation et à la déshumanisation dans la politique migratoire de l’UE.

Droits numériques pour tous – sauf les migrants

Ces tendances dans les déploiements d’IA font partie d’un ensemble plus large – et croissant – écosystème de surveillance développés aux frontières européennes et à l’intérieur de celles-ci.

Par exemple, dans la proposition de réforme d’Eurodac, l’UE cherche à étendre massivement les bases de données de surveillance avec des données sur les personnes qui demandent l’asile ou qui sont appréhendées à la frontière, y compris les images faciales et les données des enfants dès l’âge de 6 ans.

Ceci est totalement en contradiction avec les normes établies dans le règlement général sur la protection des données de l’UE.

C’est emblématique d’une tendance : l’UE crée une législation qui protège les droits fondamentaux – puis ignore cette législation dans sa quête pour sceller ses frontières.

Cet exceptionnalisme coûte des vies et ouvre la voie à l’érosion des propres normes – et valeurs de l’UE. C’est un double standard qu’il faut appeler par son nom : le racisme.

Interdire l’IA nuisible dans la migration

Comme l’ont souligné le professeur E Tendayi Achiume, ancien rapporteur des Nations Unies sur les formes contemporaines de racisme, et la forte coalition de la société civile #ProtectNotSurveilnous avons besoin d’un engagement à démantèlement des technologies qui perpétuent le mal.

Cela signifie prendre des mesures audacieuses, notamment en interdisant certaines des utilisations les plus nocives de l’IA : celles utilisées dans les contextes de migration.

En pratique, cela signifie que la loi européenne sur l’IA doit interdire et prévenir les outils de profilage d’IA discriminatoires utilisé dans les procédures de migration et les prévisions basées sur l’IA utilisées pour les refoulements en violation du droit international des réfugiés. Il doit s’assurer que l’utilisation d’outils d’identification biométrique – comme les appareils portatifs de la police – (sur lesquels la loi est actuellement muette) est réglementée comme « à haut risque ».

La loi sur l’IA ne corrigera pas les politiques migratoires profondément défectueuses de l’Europe. Mais cela peut garantir que les technologies d’IA sont réglementées d’une manière qui empêche d’autres dommages et qui choisit une protection égale plutôt que des doubles normes.

Sarah Chander est conseillère politique principale chez European Digital Rights (EDRi). Alyna Smith est directrice adjointe de la Plateforme pour la coopération internationale sur les migrants sans papiers (PICUM).

Chez Euronews, nous pensons que tous les points de vue comptent. Contactez-nous à [email protected] pour envoyer des présentations ou des soumissions et faire partie de la conversation.

Source link -57