[ad_1]
- La Maison Blanche a publié une déclaration des droits de l’IA, un ensemble de principes pour les entreprises traitant de l’IA.
- Lors de la rédaction du projet de loi, il a demandé aux entreprises, aux chercheurs et aux groupes de défense des droits civiques de donner leur avis.
- Plusieurs groupes ont déclaré que les pratiques de la société de reconnaissance faciale Clearview AI étaient préoccupantes.
Alors que la Maison Blanche élaborait sa déclaration des droits de l’IA, plusieurs organisations l’ont contactée pour exprimer leur inquiétude au sujet de la société de reconnaissance faciale Clearview AI, montrent des documents récemment publiés.
Plus de 20 organisations ont mentionné les nombreuses poursuites en matière de confidentialité contre Clearview, concernant les applications policières de sa technologie et sa base de données, qui, selon la société, compte 10 milliards d’images récupérées sur les réseaux sociaux.
Le Bureau de la politique scientifique et technologique de la Maison Blanche a publié mardi la Déclaration des droits de l’IA. Il ne s’agit pas d’une loi exécutoire mais d’un appel aux entreprises à établir des règles éthiques pour l’utilisation des systèmes automatisés.
Le bureau l’a écrit après avoir demandé aux chercheurs, aux entreprises et aux organisations de défense des droits civiques des commentaires, qui ont été publiés mardi. Des groupes de défense des droits civiques et des chercheurs ont distingué Clearview AI, décrivant un comportement préoccupant qui incite à un ensemble de lois et de principes directeurs solides.
La déclaration des droits de l’IA stipule que les gens doivent savoir quand des systèmes automatisés sont utilisés, avoir le droit de parler à un être humain, avoir le droit de s’inscrire ou de ne pas participer, avoir le contrôle de leurs données et être protégés contre la discrimination réelle de la part du systèmes.
Clearview AI a déclaré dans ses commentaires que la reconnaissance faciale « est un outil essentiel pour assurer la sécurité publique » avec des garanties appropriées, telles que l’exclusion des résultats explicites, l’information des utilisateurs sur les violations de données, la formation de ses utilisateurs, l’examen humain de chaque correspondance, la conservation des enregistrements de recherche pour audit, et ne pas utiliser la reconnaissance faciale sur les personnes « engagées dans des activités protégées » comme des expressions de liberté d’expression.
Le PDG de Clearview AI, Hoan Ton-That, a déclaré dans un communiqué envoyé par courrier électronique que la société estimait qu’il était « éthique et approprié » d’utiliser des images « déjà publiques » comme celles de la base de données de Clearview AI pour « aider à résoudre des crimes, retrouver des enfants disparus et exonérer les innocent. »
Mais plusieurs groupes de défense des droits civiques et experts ont déclaré que la société d’intelligence artificielle devait aller plus loin pour protéger les utilisateurs. Ils ont soulevé les préoccupations suivantes.
Base de données contraire à l’éthique et utilisation de la biométrie
De nombreux groupes ont contesté la façon dont Clearview AI a créé sa base de données.
L’American Civil Liberties Union de New York a déclaré que la base de données comprend « des données biométriques sur pratiquement tous ceux qui ont déjà téléchargé des photos sur Facebook, Instagram, Twitter, Venmo ou d’autres plateformes de médias sociaux » et qu’au moins 62 organismes chargés de l’application des lois à New L’État de York avait utilisé Clearview AI.
En outre, la National Fair Housing Alliance et le Project on Government Oversight ont exprimé des inquiétudes quant au fait que des entreprises comme Clearview AI utilisent la biométrie « sans le consentement ni la connaissance de leur groupe cible ».
La Software & Information Industry Association a même suggéré que Clearview AI avait commis des « abus d’informations biométriques », bien qu’elle soit favorable à une réglementation légère.
Perpétuer l’injustice
Plusieurs groupes ont déclaré que Clearview AI pourrait être utilisé d’une manière qui perpétue l’injustice ou viole les droits civils.
Elizabeth M. Renieris et Yong Suk Lee, professeurs au Notre Dame Technology Ethics Center, ont cité Clearview AI comme un exemple qui devrait inciter le Bureau de la politique scientifique et technologique à élaborer des garanties contre l’utilisation des informations biométriques pour « une surveillance et un contrôle plus étendus de communautés spécifiques. »
Jonathan Barry-Blocker, professeur invité au Levin College of Law de l’Université de Floride, a écrit que l’Alabama et d’autres États du Sud avaient également utilisé la technologie biométrique de Clearview AI pour compenser les pénuries de personnel dans les services de police et les prisons.
Certaines organisations ont attiré l’attention sur les problèmes de précision avec Clearview AI, affirmant que les bases de données privées ont plus de variance dans la qualité de l’image, ce qui peut conduire à des systèmes de reconnaissance faciale moins fiables.
L’ACLU du Massachusetts a déclaré que cela pourrait augmenter « la probabilité d’une identification erronée et d’une arrestation injustifiée », citant la base de données de Clearview AI comme exemple avec une grande variance de qualité d’image.
Manque de transparence
D’autres organisations ont attiré l’attention sur les utilisations irresponsables ou non transparentes de Clearview AI.
Les ACLU du Massachusetts et de New York ont déclaré que la police pourrait violer les droits des personnes lorsqu’elle utilise la reconnaissance faciale avec peu de contrôle. Il a cité une enquête de BuzzFeed News qui a révélé que pendant des années, les policiers pouvaient utiliser Clearview AI à l’insu ou sans l’approbation de leurs supérieurs.
Le bureau du défenseur public de l’Ohio a déclaré que bien que la base de données de reconnaissance faciale de l’État soit réglementée, les services de police ne sont pas réglementés sur l’utilisation d’outils de reconnaissance faciale privés et « peuvent donc simplement utiliser Clearview AI » plutôt que la base de données de l’État.
L’Electronic Privacy Information Center et le National Immigration Law Center ont déclaré qu’en 2020, la même année, le ministère de la Sécurité intérieure a signé un contrat avec Clearview AI, l’Immigration and Customs Enforcement a refusé de dire si le logiciel de l’entreprise serait utilisé pour les expulsions et n’a pas ‘ t mentionner Clearview dans sa déclaration de confidentialité.
La National Fair Housing Alliance a déclaré qu’aucune loi n’empêchait les propriétaires ou les employeurs d’utiliser Clearview AI pour discriminer les locataires et les candidats à un emploi. Il a également déclaré que les gouvernements pourraient facilement utiliser Clearview AI « pour arrêter les manifestations civiles, traquer les opposants politiques pour obtenir des informations susceptibles de faire l’objet d’un chantage » et « surveiller les communautés déjà privées de leurs droits ».
Risques juridiques
Plusieurs groupes ont souligné les risques juridiques de Clearview AI, qui a déjà été poursuivi à plusieurs reprises en vertu de la loi sur la confidentialité des informations biométriques de l’Illinois. L’ACLU a récemment réglé une affaire contre Clearview AI, qui a empêché la société de vendre sa base de données – mais pas son logiciel – à des entités privées.
Une coalition de procureurs généraux du district de Columbia, de l’Illinois, du Maryland, du Michigan, du Minnesota, de New York, de la Caroline du Nord, de l’Oregon, du Vermont et de Washington a cité les poursuites judiciaires de Clearview AI comme l’une des raisons pour lesquelles le bureau de la Maison Blanche « intègre une sécurité robuste et mesurable et les protocoles de transparence. »
Des chercheurs de l’UCLA Institute for Technology ont écrit que des entreprises américaines comme Clearview AI ont déjà été tenues responsables en vertu des lois sur la protection des données dans le monde entier.
Par exemple, l’année dernière, le Parlement européen a appelé à interdire à la police d’utiliser la technologie de reconnaissance faciale d’entreprises comme Clearview AI dans les lieux publics.
Les chercheurs ont souligné que le comité européen de la protection des données a également statué en mars 2021 que Clearview AI fonctionnait d’une manière qui « serait probablement incompatible avec le régime de protection des données de l’UE ».
Vous avez un conseil ? Contactez ce journaliste à [email protected] ou [email protected], ou via l’application de messagerie sécurisée Signal au +1 (785) 813-1084. Tendre la main à l’aide d’un appareil non professionnel.
Mise à jour du 7 octobre : cet article a été mis à jour pour inclure les commentaires de Clearview AI.
[ad_2]
Source link -3