Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Les opinions exprimées dans cet article sont celles de l’auteur et ne représentent en aucun cas la position éditoriale d’Euronews. Alors que les militants des droits civiques réclament depuis longtemps une interdiction pure et simple, certains législateurs européens pourraient voir dans la loi sur l’IA une opportunité de prétendre qu’ils respectent les droits (de l’homme) – et qu’ils font en réalité le contraire, écrit Ella Jakubowska. PUBLICITÉEn juin 2023, le Parlement européen est entré dans l’histoire en votant en faveur d’une interdiction totale de la reconnaissance faciale en direct dans les espaces publics. Grâce au nouveau projet de loi sur l’intelligence artificielle, l’UE pourrait empêcher les entreprises et les autorités de nous traiter tous comme des codes-barres ambulants. Mais la pression exercée par les gouvernements européens menace de transformer cette possibilité en cauchemar de George Orwell.Depuis la fin de l’été 2023, les gouvernements et les parlementaires de l’UE se sont efforcés de parvenir à un accord sur la loi sur l’intelligence artificielle (IA). Cette loi historique promet que l’UE deviendra un leader mondial dans l’équilibre entre innovation en IA et protection – mais la réalité est moins optimiste.Les législateurs européens débattent tout au long du mois de novembre sur la marge de manœuvre à accorder à la police pour utiliser la reconnaissance faciale publique. Bien que ces systèmes soient liés à des violations des droits de l’homme dans le monde et récemment condamnés par Amnesty International pour avoir facilité le système israélien d’oppression contre les Palestiniens, l’engagement du Parlement européen en faveur d’une interdiction stricte est menacé.La marchandisation et l’abus de nos données les plus sensiblesAu cours de la dernière décennie, les informations sur toutes les facettes de notre être physique – les visages, les empreintes digitales et les yeux de pratiquement chaque personne dans le monde – sont devenues monnaie courante.Ces informations – connues sous le nom de données biométriques – sont une représentation mathématique des détails et des caractéristiques les plus infimes et les plus intimes qui composent qui nous sommes. Du dynamisme de la différence humaine, nous sommes collectivement réduits à une chaîne de 1 et de 0.Les données biométriques ont été utilisées ces dernières années pour surveiller et surveiller les gens, qu’il s’agisse de tenter de réprimer et d’effrayer les manifestants pro-démocratie à Hong Kong et en Russie ou de persécuter les communautés noires aux États-Unis. Même des utilisations apparemment banales, comme dans les documents d’identité nationaux, se sont en fait avérées être de grands outils pour des systèmes qui scannent les visages et les corps des gens sans motif valable – une démarche qui équivaut à une surveillance biométrique de masse.Si l’UE se présente comme un phare de la démocratie et des droits de l’homme, elle n’est bien entendu pas à l’abri de pratiques qui s’apparentent à une surveillance biométrique de masse.Des centres de transport en Allemagne et en Belgique, des manifestants en Autriche, des personnes vaquant à leurs occupations en République tchèque, des personnes qui dorment dans la rue en Italie et bien d’autres encore ont tous été soumis à une surveillance publique par reconnaissance faciale. Plus récemment, la France a clairement exprimé ses aspirations en matière de surveillance biométrique de masse, en adoptant une loi visant à déployer des systèmes de surveillance automatisés destinés à être utilisés lors des prochains Jeux olympiques et paralympiques.Un loup dans l’habillement du moutonLes défenseurs des droits de l’homme soutiennent depuis longtemps que l’utilisation des visages et des corps des personnes pour les identifier et les suivre à grande échelle est déjà contraire à la législation européenne en matière de droits de l’homme et de protection des données. Qu’elle soit utilisée en direct ou utilisée rétrospectivement, la reconnaissance faciale publique, notoirement peu fiable et discriminatoire, porte gravement atteinte à nos droits humains et à notre dignité essentielle.Mais le recours à de tels systèmes – souvent sous de vagues allégations de « sécurité publique » – est répandu, et les protections juridiques contre ces systèmes sont inégales et appliquées de manière incohérente.L’industrie de la surveillance de l’IA a pratiquement déclaré aux législateurs : « Pour des raisons de sécurité nationale, nous ne pouvons pas divulguer la preuve que ces systèmes fonctionnent, mais nous pouvons vous assurer qu’ils fonctionnent ». Ce qui est pire, c’est que les législateurs semblent les croire sur parole.Alors que les militants des droits civiques réclament depuis longtemps une interdiction pure et simple, certains législateurs européens pourraient voir dans la loi sur l’IA une opportunité de prétendre qu’ils respectent les droits (de l’homme) – et qu’ils font en réalité le contraire.Selon les médias bruxellois, malgré les engagements antérieurs visant à interdire les pratiques de surveillance biométrique de masse, le Parlement européen envisage désormais des exceptions « limitées » à l’interdiction de la reconnaissance en direct des visages et d’autres caractéristiques humaines.PUBLICITÉRien d’autre qu’une interdiction complète dans la loi sur l’IA ne suffiraMais le nœud du problème est qu’on ne peut pas autoriser un tout petit peu de surveillance biométrique de masse sans ouvrir les vannes.Ce n’est pas hypothétique : en utilisant les exceptions prétendument « étroites » inscrites dans le projet de loi sur l’IA par le pouvoir exécutif de l’UE, le gouvernement serbe a tenté à deux reprises de légaliser le déploiement de milliers de caméras Huawei équipées de reconnaissance faciale. Si la loi européenne sur l’IA autorise des exceptions qui permettraient aux pays de l’UE d’utiliser la reconnaissance faciale publique non ciblée, nous ne tarderons pas à lutter contre les lois sur la surveillance biométrique de masse dans les vingt-sept pays de l’UE.L’un des motifs d’utilisation qui serait considéré comme une exception à l’interdiction est la recherche de personnes soupçonnées ou reconnues coupables de crimes graves. Mais il n’y a tout simplement aucun moyen d’y parvenir sans analyser les caractéristiques de chacun dans un espace public, ce qui, selon les recherches, a un effet dissuasif sur les démocraties.Il y a aussi des questions majeures sur la nécessité. S’il y a vraiment une situation d’urgence, une technologie risquée et peu fiable comme la reconnaissance faciale va-t-elle réellement aider ?PUBLICITÉMême si la presse bruxelloise note que le Parlement européen souhaiterait que des garanties soient ajoutées, ces garanties ne peuvent pas faire grand-chose pour empêcher les gens de devoir regarder par-dessus leur épaule partout où ils vont. Vous ne pouvez pas protéger la violation d’un droit humain fondamental.Liberté ou surveillance de masse ?L’UE est au bord d’une grande réussite : une loi sur l’IA qui place véritablement l’humain au centre. Mais si cela est mal fait, nous nous retrouverons au précipice d’une loi qui dit au monde entier que l’UE donne la priorité à l’industrie de la surveillance plutôt qu’aux personnes et aux communautés.Les autorités pourront utiliser les exceptions à la reconnaissance faciale publique pour justifier l’utilisation quasi permanente de ces systèmes. Et l’infrastructure de surveillance de masse – de vastes réseaux de caméras publiques et de capteurs soutenus par de puissants processeurs – sera prête et nous attendra sur simple pression d’un bouton. PUBLICITÉIl n’est plus nécessaire de sourire devant la caméra : vous serez capturé, que cela vous plaise ou non.Ella Jakubowska est conseillère politique principale chez European Digital Rights (EDRi), un réseau collectif d’organisations à but non lucratif, d’experts, de défenseurs et d’universitaires travaillant à défendre et à faire progresser les droits numériques à travers le continent.Chez Euronews, nous pensons que tous les points de vue comptent. Contactez-nous à [email protected] pour envoyer des pitchs ou des soumissions et participer à la conversation.
Source link -57