Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words Les images générées par l’IA ont explosé en popularité à mesure que les outils deviennent plus sophistiqués. Mais la technologie est pleine de préoccupations concernant la propriété intellectuelle, les préjugés et la désinformation. Les modèles d’IA comme Stable Diffusion produisent des images de « travailleurs africains » qui reflètent des stéréotypes nuisibles. Chargement Quelque chose est en cours de chargement. Merci pour l’enregistrement! Accédez à vos sujets favoris dans un flux personnalisé lorsque vous êtes en déplacement. télécharger l’application Les modèles d’IA qui génèrent des images, comme Stable Diffusion et DALL-E d’OpenAI, créent des images de « travailleurs africains » qui affichent des biais clairs par rapport aux images créées à partir d’une invite pour les « travailleurs européens ». De nombreuses images de travailleurs africains reflètent un stéréotype néfaste d’Africains vivant dans l’extrême pauvreté, avec des visages décharnés et utilisant des outils rudimentaires pour accomplir un travail de subsistance de base. Les images représentant les travailleurs européens sont beaucoup plus lumineuses, mettant en scène des personnes heureuses qui semblent plus aisées, vêtues de tenues d’ouvrier complètes, souriantes et debout à côté d’autres personnes heureuses, en grande partie de race blanche. En raison du fonctionnement de l’IA générative, le résultat diffère à chaque fois que vous utilisez les outils, mais une part importante des résultats pour les « travailleurs africains » penche vers des images qui renforcent les idées préconçues sur les Africains comme étant pauvres et peu sophistiqués. Sortie de Stable Diffusion lorsqu’il est invité à générer des images de « travailleurs africains » Thomas Maxwell/initié L’IA générative est une intelligence artificielle qui peut générer un contenu entièrement nouveau et est devenue très populaire en 2023 après le lancement de ChatGPT d’OpenAI. Bien que cet outil puisse générer des paragraphes de texte qui semblent avoir été écrits par un humain, d’autres outils comme Stable Diffusion existent pour générer des images. Ils sont capables d’accomplir cela en étudiant des centaines de millions, voire des milliards d’échantillons d’images à partir desquels ils apprennent à imiter essentiellement les humains. Une fois que Stable Diffusion a vu suffisamment d’images d’un chien, par exemple, l’IA apprend à créer une image entièrement nouvelle d’un chien. Mais cette capacité à imiter les humains signifie que l’IA générative est livrée avec tout le bagage que les humains font, comme les préjugés préexistants. Un programme informatique est influencé par les décisions humaines – et les données sur lesquelles ils l’entraînent. Parce que ces programmes d’IA tirent des enseignements des images existantes sur le Web, ils reflètent ce que le grand public considère comme le «travailleur africain» typique. Sortie de Stable Diffusion pour les « travailleurs européens » Thomas Maxwell/initié Stability AI et OpenAI n’ont pas répondu à une demande de commentaire. Stability AI est le développeur de Stable Diffusion.Les critiques ont averti que l’industrie de la technologie se dirige vers l’IA générative avec la même mentalité de mouvement rapide et de rupture qu’elle avait lors du lancement des plateformes de médias sociaux ; mettez d’abord la technologie sur le marché et gérez les conséquences plus tard. Les partisans, pour leur part, soutiennent que la technologie doit être testée à l’air libre afin de s’améliorer et que les avantages de l’IA pour faire des choses comme améliorer la productivité l’emportent finalement sur les négatifs.L’année dernière, l’application d’avatar AI Lensa a fait l’objet d’un examen minutieux pour avoir généré des images de femmes fortement sexualisées – pendant ce temps, les avatars créés d’hommes les représentaient comme des astronautes et d’autres personnages compatibles avec PG. Stable Diffusion est formé sur LAION-5B, un vaste ensemble de données open source d’images extraites du Web. Étant donné que les images sur lesquelles Stable Diffusion est formé sont accessibles à tous, il est possible de retracer pourquoi l’outil de génération d’images pense que les « travailleurs africains » ont une certaine apparence. Mais même une simple recherche sur Google pour des termes similaires renvoie des images similaires. Plusieurs images générées par le créateur d’images alimenté par l’IA de Bing pour l’invite « Travailleurs africains ». Thomas Maxwell/initié Un universitaire qui s’est entretenu avec Insider, qui a demandé l’anonymat parce qu’il n’avait pas la permission de son employeur de parler aux médias, a déclaré que les développeurs de modèles devraient collecter de meilleures données de formation qui ne perpétueraient pas les stéréotypes problématiques. Mais la collecte manuelle de données à l’échelle requise pour former un modèle serait d’un coût prohibitif. Récupérer de grandes quantités de données à partir du Web ouvert et des ensembles de formation existants est beaucoup plus efficace. Sasha Luccioni, chercheuse à Hugging Face avec un doctorat en intelligence artificielle, a déclaré à Insider que les outils d’IA produiront beaucoup de biais en fonction de la façon dont ils sont utilisés. « Si nous parlons d’outils assistés par l’IA pour les artistes, qui impliquent de nombreuses interactions humaines dans la boucle entre l’artiste et le modèle, alors les dommages peuvent être contrôlés et contenus. » Les modèles qui génèrent des images de stock basées sur une invite, en revanche, doivent inclure des mécanismes de sécurité ou des clauses de non-responsabilité pour informer les utilisateurs qu’ils peuvent reproduire des stéréotypes. Luccioni a mentionné comment Disney a récemment ajouté des clauses de non-responsabilité aux films plus anciens sur son service de streaming Disney + qui disent que les films, comme Aladdin, peuvent présenter des stéréotypes culturels qui ne reflètent pas les opinions de l’entreprise. Elle pense que les modèles texte-image comme DALL-E ou Stable Diffusion devraient présenter quelque chose de similaire. Certains développeurs de modèles s’efforcent d' »orienter » leurs produits loin de la production de certains résultats, par exemple en s’assurant que les modèles de texte ne font pas référence à un médecin avec des pronoms « il/lui » mais plutôt avec des termes non sexistes. Plus de formation pourrait aider à empêcher les modèles d’image de produire une sortie nuisible.Stability AI utilise un système appelé CLIP (Contrastive Language Image Pretraining) pour l’aider à générer des images. CLIP apprend à associer des images d’un ensemble de données à un texte descriptif. Il a été constaté que CLIP inclut des préjugés sexistes et raciaux, les femmes étant associées à un contenu sexuel tandis que, par exemple, les hommes sont associés à un contenu lié à la carrière. Plusieurs images générées par le créateur d’images alimenté par l’IA de Bing pour l’invite « Travailleurs européens ». Thomas Maxwell/initié Les biais ont longtemps été un problème dans le domaine de l’intelligence artificielle. Par exemple, il existe de nombreux cas de personnes noires arrêtées par erreur après que les forces de l’ordre ont utilisé la technologie de reconnaissance faciale pour identifier les suspects. Il a été constaté que les outils de reconnaissance faciale identifient à tort les personnes de couleur à des taux disproportionnellement plus élevés que les personnes de race blanche.Un rapport ProPublica de 2016 a révélé que les juges de certains tribunaux des États-Unis prenaient des décisions de mise en liberté sous caution sur la base de l’estimation d’un algorithme selon laquelle un criminel récidiverait, un calcul pondéré en partie sur les taux de criminalité dans le code postal d’une personne. Luccioni a déclaré qu’en ce qui concerne les contextes à haut risque tels que la justice ou la santé, « il devrait clairement y avoir une ligne dure au-delà de laquelle les modèles d’IA ne peuvent pas être utilisés » car ils pourraient avoir un impact direct sur la vie des gens. Stable Diffusion et DALL-E – ainsi que des outils de chatbot comme ChatGPT, Google’s Bard et Character.ai – font également l’objet d’un examen minutieux en raison de problèmes de droits d’auteur. Stability AI, la société qui développe Stable Diffusion, a été poursuivie en février par Getty Images, qui allègue que la société a utilisé des millions de ses images pour former ses modèles d’IA.
Source link -57