Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Par Ella Jakubowska, EDRi, Hajira Maryam et Matt Mahmoudi, Amnesty International • Mis à jour: 14/04/2023 – 14:39 À la suite du cambriolage d’une entreprise de logistique française en 2019, la technologie de reconnaissance faciale (FRT) a été utilisée sur les images des caméras de sécurité de l’incident pour tenter d’identifier les auteurs. FRT fonctionne en essayant de faire correspondre des images provenant, par exemple, de caméras de télévision en circuit fermé (CCTV) à des bases de données contenant souvent des millions d’images faciales, dans de nombreux cas collectées à l’insu et sans consentement. Dans ce cas, le système FRT a répertorié deux cents personnes comme suspects potentiels. De cette liste, la police a isolé « M. H » et l’a accusé de vol, malgré l’absence de preuves matérielles permettant de le relier au crime.Lors de son procès, le tribunal a refusé une demande de l’avocat de M. H de partager des informations sur la manière dont le système avait compilé la liste, qui était au cœur de la décision d’inculper M. H. Le juge a décidé de s’appuyer sur cette technologie notoirement discriminatoire, condamnant Monsieur H à 18 mois de prison.Inculpé par reconnaissance facialeLe FRT « en direct » est souvent la cible de critiques (méritées), car la technologie est utilisée pour suivre et surveiller les individus en temps réel. Cependant, l’utilisation rétrospective de la technologie de reconnaissance faciale, après qu’un incident a eu lieu, est moins examinée bien qu’elle soit utilisée dans des cas comme celui de M. H. La FRT rétrospective est rendue plus facile et plus omniprésente par la grande disponibilité des images de caméras de sécurité et les infrastructures déjà en place pour la technique.Désormais, dans le cadre des négociations d’une nouvelle loi visant à réglementer l’intelligence artificielle (IA), la loi sur l’IA, les gouvernements de l’UE proposent d’autoriser l’utilisation systématique de la reconnaissance faciale rétrospective contre le grand public – par la police, les gouvernements locaux et même les entreprises privées .La loi sur l’IA proposée par l’UE est basée sur le principe que le FRT rétrospectif est moins nocif que son itération « en direct ».L’exécutif de l’UE a fait valoir que les risques et les préjudices peuvent être atténués avec le temps supplémentaire que permet le traitement rétrospectif.Cet argument est faux. Non seulement le temps supplémentaire ne permet pas de s’attaquer aux problèmes clés – la destruction de l’anonymat et la suppression des droits et libertés – mais il introduit également des problèmes supplémentaires.’Post’ RBI : La mesure de surveillance la plus dangereuse dont vous n’avez jamais entendu parler ?L’identification biométrique à distance, ou RBI, est un terme générique désignant des systèmes tels que FRT qui scannent et identifient les personnes à l’aide de leur visage – ou d’autres parties du corps – à distance. Lorsqu’elle est utilisée rétrospectivement, la proposition de loi sur l’IA de l’UE y fait référence comme « Post RBI ». Post RBI signifie qu’un logiciel pourrait être utilisé pour identifier les personnes dans un flux à partir d’espaces publics des heures, des semaines ou même des mois après sa capture. Par exemple, exécuter FRT sur des manifestants capturés sur des caméras de vidéosurveillance positionnées. Ou, comme dans le cas de M. H, pour diffuser des images de vidéosurveillance sur une base de données gouvernementale contenant un nombre impressionnant de 8 millions d’images faciales.L’utilisation de ces systèmes produit un effet paralysant dans la société ; à quel point nous nous sentons à l’aise d’assister à une manifestation, de rechercher des soins de santé – comme l’avortement dans des endroits où il est criminalisé – ou de parler avec un journaliste.Le simple fait de savoir que le FRT rétrospectif peut être utilisé pourrait nous faire craindre que des informations sur nos vies personnelles puissent être utilisées contre nous à l’avenir.Le FRT peut aussi nourrir le racismeLa recherche suggère que l’application du FRT affecte de manière disproportionnée les communautés racialisées. Amnesty International a démontré que les personnes vivant dans des zones plus exposées aux contrôles policiers racistes d’interpellation et de fouille – affectant massivement les personnes de couleur – sont susceptibles d’être plus exposées à davantage de collecte de données et à une technologie invasive de reconnaissance faciale.Par exemple, Dwreck Ingram, un organisateur de la manifestation Black Lives Matter de New York, a été harcelé par les forces de police dans son appartement pendant quatre heures sans mandat ni accusation légitime, simplement parce qu’il avait été identifié par le poste RBI suite à sa participation à un Black Lives Protestation de la matière. Ingram s’est retrouvé dans une longue bataille juridique pour faire abandonner de fausses accusations contre lui après qu’il soit devenu clair que la police avait utilisé cette technologie expérimentale sur lui.La liste continue. Robert Williams, un habitant de Detroit, a été faussement arrêté pour vol commis par quelqu’un d’autre. Randall Reid a été envoyé en prison en Louisiane, un État qu’il n’avait jamais visité parce que la police l’avait identifié à tort comme suspect dans un vol avec FRT. Pour les communautés racisées, en particulier, la normalisation de la reconnaissance faciale est la normalisation de leur file d’attente virtuelle perpétuelle.Si vous avez une présence en ligne, vous êtes probablement déjà dans les bases de données FRTCette technologie dystopique a également été utilisée par des clubs de football aux Pays-Bas pour rechercher des supporters interdits et infliger à tort une amende à un supporter qui n’a pas assisté au match en question. Il aurait également été utilisé par la police en Autriche contre des manifestants et en France sous prétexte de rendre les villes « plus sûres » et plus efficaces, mais en fait, d’augmenter la surveillance de masse.Ces technologies sont souvent proposées à un coût faible ou nul. Une entreprise offrant de tels services est Clearview AI. La société a proposé des recherches de reconnaissance faciale hautement invasives à des milliers d’agents et d’agences chargés de l’application des lois à travers l’Europe, les États-Unis et d’autres régions. En Europe, les autorités nationales de protection des données ont adopté une position ferme contre ces pratiques, les régulateurs italiens et grecs infligeant à Clearview AI une amende de plusieurs millions d’euros pour avoir gratté le visage de citoyens de l’UE sans base légale. Les régulateurs suédois ont infligé une amende à la police nationale pour avoir traité illégalement des données personnelles lors de l’utilisation de Clearview AI pour identifier des individus.La loi sur l’IA pourrait être une chance de mettre fin aux abus de la surveillance de masseMalgré ces mesures prometteuses pour protéger nos droits humains de la reconnaissance faciale rétrospective par les autorités de protection des données, les gouvernements de l’UE cherchent maintenant à mettre en œuvre ces pratiques dangereuses malgré tout.Les expériences d’identification biométrique dans des pays du monde entier nous ont montré à maintes reprises que ces technologies, et la collecte massive de données qu’elles impliquent, érodent les droits des personnes les plus marginalisées, notamment les communautés racialisées, les réfugiés, les migrants et les demandeurs d’asile.Les pays européens ont commencé à légaliser une série de pratiques de surveillance biométrique de masse, menaçant de normaliser l’utilisation de ces systèmes intrusifs dans toute l’UE. C’est pourquoi, plus que jamais, nous avons besoin d’une réglementation européenne forte qui capture toutes les formes de surveillance de masse biométrique en direct et rétrospective dans nos communautés et aux frontières de l’UE, y compris en arrêtant Post RBI dans son élan.Avec la loi sur l’IA, l’UE a une occasion unique de mettre fin aux abus endémiques facilités par les technologies de surveillance de masse. Il doit établir une norme élevée en matière de protection des droits de l’homme pour l’utilisation des technologies émergentes, en particulier lorsque ces technologies amplifient les inégalités existantes dans la société.Ella Jakubowska est conseillère politique principale à European Digital Rights (EDRi), un réseau collectif d’organisations à but non lucratif, d’experts, de défenseurs et d’universitaires travaillant pour défendre et faire progresser les droits numériques à travers le continent.Hajira Maryam est responsable des médias et Matt Mahmoudi est chercheur en intelligence artificielle et en droits humains à Amnesty Tech, un collectif mondial de défenseurs, de militants, de hackers, de chercheurs et de technologues qui défendent les droits humains à l’ère numérique.Chez Euronews, nous pensons que tous les points de vue comptent. Contactez-nous à [email protected] pour envoyer des présentations ou des soumissions et faire partie de la conversation.
Source link -57