Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Google a temporairement cessé de permettre aux utilisateurs de produire des images de personnes en utilisant son modèle d’intelligence artificielle Gemini après un problème soulevé par les utilisateurs sur l’origine ethnique des personnes dans les images. De nombreux utilisateurs de médias sociaux ont publié des exemples d’images générées par Gemini qui montrent des Vikings, des papes et les pères fondateurs des États-Unis dans diverses ethnies et genres. Cela a déclenché un débat sur les préjugés implicites ou une incitation implicite à agir contre de tels préjugés.
« Nous travaillons déjà pour résoudre les problèmes récents liés à la fonctionnalité de génération d’images de Gemini. Pendant ce temps, nous allons suspendre la génération d’images de personnes et rééditerons bientôt une version améliorée », a déclaré Google dans un communiqué.
Dans sa déclaration, Google n’a mentionné aucune image spécifique, mais des exemples de telles images sont largement disponibles sur les réseaux sociaux. Le Guardian a rapporté un message rédigé par un ancien employé de Google qui a déclaré qu’il était « difficile de faire reconnaître à Google Gemini que les Blancs existent ».
« Nous travaillons à améliorer immédiatement ce type de représentations », a déclaré Jack Krawczyk, directeur principal de l’équipe Gemini de Google.
« La génération d’images IA de Gemini génère un large éventail de personnes. Et c’est généralement une bonne chose car des gens du monde entier l’utilisent. Mais ici, on manque le but. »
Regarder | Google poursuivi en justice pour que les smartphones Pixel 6 pro soient trop chauds
Dans sa déclaration sur la plateforme de médias sociaux X (anciennement Twitter), Krawczyk a ajouté que les outils d’IA de Google « reflètent notre base d’utilisateurs mondiale ».
Il a déclaré que même si Google continuerait à le faire pour les demandes « ouvertes » comme « une personne promenant un chien », il a admis que les réponses aux invites liées à l’historique nécessitaient quelques ajustements.
« Les contextes historiques sont plus nuancés et nous nous adapterons davantage pour tenir compte de cela », a-t-il déclaré.
La couverture médiatique des préjugés dans l’IA a montré de nombreux exemples d’impact négatif sur les personnes de couleur. L’année dernière, une enquête du Washington Post a montré de nombreux exemples de générateurs d’images montrant des préjugés à l’égard des personnes de couleur, ainsi que du sexisme. Il a révélé que le générateur d’images Stable Diffusion XL montrait les bénéficiaires de bons d’alimentation comme étant principalement non blancs ou à la peau plus foncée, bien que 63 % des bénéficiaires de bons d’alimentation aux États-Unis soient blancs. Une demande d’image d’une personne « aux services sociaux » a donné des résultats similaires.
(Avec la contribution des agences)