Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
Les représentants des organismes fédéraux chargés de l’application de la loi et de la réglementation, y compris le Bureau de protection financière des consommateurs (CFPB), département de la Justice (MJ), Commission fédérale du commerce (FTC) et la Commission pour l’égalité des chances dans l’emploi (EEOC) avertissent que l’émergence de la technologie de l’intelligence artificielle (IA) ne permet pas d’enfreindre les lois existantes relatives aux droits civils, à la concurrence loyale, à la protection des consommateurs et à l’égalité des chances.
Dans une déclaration conjointe, la Division des droits civils du DOJ, du CFPB, de la FTC et de l’EEOC a souligné son engagement à faire respecter les lois et réglementations existantes malgré le manque de surveillance réglementaire actuellement en place concernant les technologies émergentes d’IA.
« Les entités privées et publiques utilisent ces [emerging A.I.] systèmes pour prendre des décisions critiques qui ont un impact sur les droits et les opportunités des individus, y compris un accès juste et égal à un emploi, un logement, des opportunités de crédit et d’autres biens et services », note la déclaration conjointe. « Ces systèmes automatisés sont souvent annoncés comme fournissant des informations et des percées, augmentant l’efficacité et les économies, et modernisant les pratiques existantes. Bien que bon nombre de ces outils offrent la promesse d’avancement, leur utilisation a également le potentiel de perpétuer des préjugés illégaux, d’automatiser la discrimination illégale et de produire d’autres résultats néfastes.
Les résultats potentiellement discriminatoires dans les domaines d’intervention du CFPB sont une préoccupation majeure, selon Rohit Chopra, directeur de l’agence.
« La technologie commercialisée sous le nom d’IA s’est propagée à tous les coins de l’économie, et les régulateurs doivent garder une longueur d’avance sur sa croissance pour éviter des résultats discriminatoires qui menacent la stabilité financière des familles », a déclaré Chopra. « La déclaration conjointe d’aujourd’hui indique clairement que le CFPB travaillera avec ses partenaires chargés de l’application de la loi pour éradiquer la discrimination causée par tout outil ou système permettant une prise de décision illégale. »
Ces agences ont toutes dû faire face à l’essor de l’IA récemment.
L’année dernière, le CFPB a publié une circulaire confirmant que les lois sur la protection des consommateurs restent en place pour ses industries couvertes, quelle que soit la technologie utilisée pour servir les consommateurs.
La division des droits civils du DOJ a publié en janvier une déclaration d’intérêt devant un tribunal fédéral expliquant que la Fair Housing Act s’applique aux services de sélection des locataires basés sur un algorithme après qu’un procès dans le Massachusetts a allégué que l’utilisation d’un système de notation basé sur un algorithme pour sélectionner les locataires était discriminatoire. Demandeurs de location noirs et hispaniques.
L’année dernière, l’EEOC a publié un document d’assistance technique qui détaillait comment l’Americans with Disabilities Act (ADA) s’applique à l’utilisation de logiciels et d’algorithmes, y compris l’IA, pour prendre des décisions liées à l’emploi concernant les candidats et les employés.
La FTC a publié un rapport en juin dernier mettant en garde contre les méfaits qui pourraient provenir des plateformes d’IA, notamment l’inexactitude, les préjugés, la discrimination et le « fluage de la surveillance commerciale ».
Dans des remarques préparées lors de l’annonce inter-agences, le directeur Chopra a cité le préjudice potentiel qui pourrait provenir des systèmes d’IA en ce qui concerne l’espace hypothécaire.
« Alors que les machines à calculer des chiffres peuvent sembler capables d’éliminer les préjugés humains de l’équation, ce n’est pas ce qui se passe », a déclaré Chopra. « Les résultats d’études universitaires et de reportages soulèvent de sérieuses questions sur le biais algorithmique. Par exemple, une analyse statistique de 2 millions de demandes de prêt hypothécaire a révélé que les familles noires étaient 80 % plus susceptibles d’être refusées par un algorithme que les familles blanches ayant des antécédents financiers et de crédit similaires.