Customize this title in frenchVérifiez que vos outils d’intelligence artificielle « bossware » ne sont pas biaisés, déclare le chef de l’agence américaine

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Le chef de l’agence américaine chargée de faire respecter les droits civils sur le lieu de travail affirme que les outils « bossware » basés sur l’intelligence artificielle qui suivent de près les allées et venues, les frappes au clavier et la productivité des travailleurs peuvent également enfreindre les lois sur la discrimination.

Charlotte Burrows, présidente de la Commission pour l’égalité des chances en matière d’emploi, a déclaré à l’Associated Press que l’agence tente d’éduquer les employeurs et les fournisseurs de technologie sur leur utilisation de ces outils de surveillance ainsi que des outils d’IA qui rationalisent le travail d’évaluation des perspectives d’emploi.

Et s’ils ne font pas attention aux algorithmes draconiens de surveillance des horaires qui pénalisent les pauses pour les femmes enceintes ou les musulmans qui prennent le temps de prierou permettant à un logiciel défectueux d’éliminer les diplômés des collèges féminins ou historiquement noirs – ils ne peuvent pas blâmer l’IA lorsque l’EEOC appelle.

« Je n’hésite pas à utiliser notre autorité d’exécution lorsque c’est nécessaire », a déclaré Burrows. « Nous voulons travailler avec les employeurs, mais il n’y a certainement pas d’exemption aux lois sur les droits civils parce que vous vous engagez dans la discrimination d’une manière high-tech. »

L’agence fédérale a publié jeudi sa dernière série de directives sur l’utilisation de systèmes automatisés dans les décisions d’emploi telles que qui embaucher ou promouvoir. Il explique comment interpréter une disposition clé de la loi sur les droits civils de 1964, connue sous le nom de Titre VII, qui interdit la discrimination dans l’emploi fondée sur la race, la couleur, l’origine nationale, la religion ou le sexe, ce qui inclut les préjugés contre les travailleurs homosexuels, lesbiens et transgenres..

Burrows a déclaré qu’un exemple important concerne les filtres de CV largement utilisés et s’ils peuvent ou non produire un résultat biaisé s’ils sont basés sur des données biaisées.

« Ce qui va se passer, c’est qu’il y a un algorithme qui recherche des modèles qui reflètent des modèles avec lesquels il est déjà familier », a-t-elle déclaré. « Il sera formé sur les données provenant de ses employés existants. Et si vous avez actuellement un ensemble d’employés non diversifié, vous risquez de vous retrouver par inadvertance avec des personnes qui ne ressemblent pas à vos employés actuels.

Amazon, par exemple, a abandonné son propre outil d’analyse de CV pour recruter les meilleurs talents après avoir découvert qu’il favorisait les hommes pour les rôles techniques, en partie parce qu’il comparait les candidats à l’emploi à la main-d’œuvre technologique à prédominance masculine de l’entreprise.

Autres agencesy compris le ministère de la Justice, ont envoyé des avertissements similaires au cours de l’année écoulée, avec des ensembles de directives antérieurs sur la façon dont certains outils d’IA pourraient discriminer les personnes handicapées et violer l’Americans with Disabilities Act.

Dans certains cas, l’EEOC a pris des mesures. En mars, l’opérateur du site Web de recherche d’emploi technologique Dice.com s’est entendu avec l’agence pour mettre fin à une enquête sur des allégations selon lesquelles il autorisait les affiches d’emploi à exclure les travailleurs d’origine américaine en faveur des immigrants à la recherche d’un visa de travail. Pour régler l’affaire, la société mère, DHI Group, a accepté de réécrire sa programmation pour « gratter » un langage discriminatoire tel que « H-1Bs Only », une référence à un type de visa de travail.

Une grande partie du travail de l’EEOC consiste à enquêter sur les plaintes déposées par des employés qui estiment avoir été victimes de discrimination. Et bien qu’il soit difficile pour les demandeurs d’emploi pour savoir si un outil d’embauche biaisé leur a valu de se voir refuser un emploi, Burrows a déclaré qu’il y avait «généralement plus de sensibilisation» parmi les travailleurs sur les outils qui sont de plus en plus utilisés pour surveiller leur productivité.

Ces outils vont des dispositifs de radiofréquence pour suivre les infirmières, à la surveillance minute par minute de l’horaire étroitement contrôlé des employés d’entrepôt et des chauffeurs-livreurs, au suivi des frappes au clavier ou des clics de souris d’ordinateur, car de nombreux employés de bureau ont commencé à travailler à domicile pendant la pandémie. Certains pourraient violer les lois sur les droits civils, selon la façon dont ils sont utilisés.

Burrows a noté que le Conseil national des relations de travail étudie également de tels outils d’IA. Le NLRB a envoyé une note l’année dernière avertissant que des outils de surveillance et de gestion trop intrusifs peuvent porter atteinte aux droits des travailleurs de communiquer entre eux au sujet d’activités syndicales ou de conditions dangereuses.

« Je pense que la meilleure approche là-bas – je ne dis pas de ne pas l’utiliser, ce n’est pas illégal en soi – mais c’est vraiment de penser à ce que les employeurs cherchent à mesurer et peut-être à mesurer directement », a déclaré Burrows. . « Si vous essayez de voir si le travail est fait, vérifiez peut-être que le travail est fait. »

Source link -57