Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- De nouvelles recherches suggèrent que les générateurs d’images d’IA reflètent les préjugés raciaux et sexistes dans leurs sorties.
- Il a été constaté que l’outil d’intelligence artificielle DALL-E 2 reliait les hommes blancs au « PDG » ou au « directeur » 97 % du temps.
- Les chercheurs affirment que les résultats biaisés peuvent perpétuer les stéréotypes raciaux et nuire aux communautés marginalisées.
De nouvelles recherches suggèrent que les générateurs d’images AI comme DALL-E 2 dépeignent les préjugés raciaux et sexistes dans leurs sorties.
Une équipe de chercheurs de la société d’IA Hugging Face – dont l’un est un ancien chercheur en éthique de l’IA chez Google – et un professeur de l’Université allemande de Leipzig ont publié une étude pour identifier comment les préjugés raciaux et sexistes se reflètent dans les images générées par l’IA.
L’objectif de la recherche était d’identifier le risque de « résultats potentiellement discriminatoires » dans les systèmes d’IA dans l’espoir que les experts puissent rendre les futurs modèles d’IA génératifs moins biaisés, selon les chercheurs.
« Alors que les systèmes Text-to-Image (TTI) activés par l’apprentissage automatique deviennent de plus en plus répandus et sont de plus en plus adoptés en tant que services commerciaux, caractériser les préjugés sociaux qu’ils présentent est une première étape nécessaire pour réduire leur risque de résultats discriminatoires », ont écrit les chercheurs. .
Pour mener l’étude, l’équipe a utilisé trois modèles de générateur d’images AI populaires – deux versions du modèle texte-image Stable Diffusion et DALL-E 2 d’OpenAI – pour produire plus de 96 000 images divisées en deux ensembles de données à des fins de comparaison.
Un ensemble de données comprenait des images générées avec des invites qui indiquaient explicitement des descripteurs de genre et d’ethnicité comme « homme Latinx » et « personne multiraciale ». L’autre ensemble de données comprenait des images réalisées à l’aide d’invites comprenant des variations d’adjectifs associés à une gamme de professions telles que « plombier ambitieux » et « PDG compatissant ».
Les chercheurs ont ensuite utilisé une technique d’apprentissage automatique pour comparer les deux ensembles de données et classer les images en fonction des similitudes.
L’étude a révélé que 97% des images de DALL-E 2 représentant des postes d’autorité – comme « PDG » ou « directeur » – représentaient des hommes blancs. Dans la vraie vie, 88% des PDG, directeurs financiers et directeurs de l’exploitation des entreprises du Fortune 500 sont des hommes blancs, selon une enquête de 2022 de la société de recherche C-suite Cristkolder Associates.
Une version de Stable Diffusion, en revanche, « exacerbe les stéréotypes de genre » sur les femmes, les affectant à des emplois comme « assistante dentaire », « organisatrice d’événements » et « réceptionniste », selon l’étude.
Les images qui ne représentaient pas d’hommes blancs étaient liées à des professions telles que « bonne » et « chauffeur de taxi ». « Noir » et « femme » étaient « les plus associés » à « travailleur social », selon l’étude.
En termes de traits de personnalité, les chercheurs ont découvert que des adjectifs comme « compassionné », « émotif » et « sensible » étaient principalement liés à des images de femmes, et des mots comme « têtu », « intellectuel » et « déraisonnable » étaient principalement associés à des images. des hommes.
Un porte-parole de Stability AI a déclaré à Insider que « tous les modèles d’IA ont des biais inhérents qui sont représentatifs des ensembles de données sur lesquels ils sont formés » et que « les modèles open source de l’entreprise sont formés sur des ensembles de données spécifiques à différents pays et cultures, ce qui servira à atténuer biais causés par la surreprésentation dans les ensembles de données généraux. »
« En open source nos modèles, nous visons à soutenir la communauté de l’IA et à collaborer pour améliorer les techniques d’évaluation des biais et développer des solutions au-delà de la modification rapide de base », a déclaré le porte-parole.
OpenAI n’a pas immédiatement répondu à la demande de commentaire d’Insider.
Bien que les chercheurs admettent que l’étude n’est pas parfaite, leurs conclusions mettent en évidence la façon dont ces modèles sont entraînés sur des données biaisées qui peuvent « amplifier » la « perception sociale » autour de certains emplois, a déclaré Alexandra Sasha Luccioni, une chercheuse de Hugging Face impliquée dans l’étude. Initié.
Les chercheurs ont déclaré que les préjugés peuvent conduire à « la dévaluation de certains types de travail » ou ériger « des obstacles supplémentaires à l’accès aux carrières pour des groupes déjà sous-représentés ».
Ces biais peuvent avoir des conséquences dans le monde réel maintenant que les sociétés d’imagerie lancent leurs propres outils d’IA générative, selon les chercheurs.
Le site d’images publiques Shutterstock, par exemple, a publié plus tôt cette année un outil d’intelligence artificielle qui crée des images d’archives en fonction des invites de l’utilisateur.
L’ajout d’une génération d’images d’IA biaisée au logiciel de « dessinateur virtuel » utilisé par les services de police pourrait « exposer des populations déjà sur-ciblées à un risque encore accru de préjudice allant des blessures physiques à l’emprisonnement illégal ».
Même si les entreprises d’intelligence artificielle ont fait des efforts pour « débiaiser » leurs outils, « ils n’ont pas encore été largement testés », a déclaré Luccioni. « Il reste encore beaucoup de travail à faire sur ces systèmes, tant du point de vue des données que du point de vue des utilisateurs. »