Meta déploie un nouveau système pour lutter contre la discrimination dans les annonces immobilières

[ad_1]

Méta Plateformesanciennement connu sous le nom Facebook inc.a annoncé lundi le déploiement d’un nouveau dispositif pour lutter contre la discrimination algorithmique dans les annonces immobilières après plus d’un an de négociations avec le département de la Justice (MJ).

Le système de réduction de la variance (VRS), requis dans le cadre du règlement rendu public le 27 juin, résout un procès intenté devant le tribunal de district américain du district sud de New York. Dans le procès, le DOJ a affirmé que le système de publicité pour le logement de Meta utilisait un « algorithme discriminatoire » qui privilégie certaines données démographiques par rapport à d’autres et viole le Fair Housing Act.

Les parties ont annoncé lundi qu’elles s’étaient mises d’accord sur les objectifs de conformité du nouveau système de réduction des écarts. Cependant, Meta sera soumis à une surveillance judiciaire et à un examen régulier de sa conformité avec le règlement jusqu’au 27 juin 2026.

La société étendra l’utilisation du système aux annonces d’emploi et de crédit aux États-Unis au cours de l’année à venir, selon Roy L. Austin Jr., vice-président des droits civils et avocat général adjoint chez Meta.

« Dans l’industrie, les approches de l’équité algorithmique évoluent encore, en particulier en ce qui concerne la publicité numérique », a déclaré Austin dans un communiqué. « Mais nous savons que nous ne pouvons pas attendre le consensus pour progresser dans la résolution des préoccupations importantes concernant le potentiel de discrimination. »

L’exécutif a déclaré que Meta avait cessé d’utiliser les audiences publicitaires spéciales, un engagement supplémentaire dans le règlement.

Le procès du DOJ a allégué que le Meta « a permis et encouragé » les annonceurs à cibler les annonces de logement sur les utilisateurs de Facebook en s’appuyant sur la race, la couleur, la religion, le sexe, le handicap, le statut familial et l’origine nationale comme paramètres pour décider qui est éligible et non éligible pour recevoir annonces immobilières.

Le procès a également déclaré que le système de diffusion d’annonces de Meta utilisait des algorithmes d’apprentissage automatique qui aident à déterminer quel sous-ensemble d’un public reçoit une annonce immobilière, en fonction de la race, de l’origine nationale et du sexe. Le Fair Housing Act protège ces caractéristiques, a déclaré le ministère.

Concernant le nouveau système, Kristen Clarke, procureure générale adjointe de la division des droits civils du ministère de la Justice, a déclaré : « Cette évolution marque une étape cruciale dans les efforts du ministère de la Justice pour tenir Meta responsable des biais algorithmiques illégaux et de la diffusion de publicités discriminatoires sur ses plateformes. ”

« La surveillance fédérale de Meta devrait envoyer un signal fort aux autres entreprises technologiques qu’elles seront également tenues responsables de ne pas avoir traité la discrimination algorithmique qui va à l’encontre de nos lois sur les droits civils », a ajouté l’avocat adjoint.

[ad_2]

Source link -1