Customize this title in frenchPourquoi l’outil d’IA de Google a été critiqué pour avoir montré des images de personnes de couleur

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les pères fondateurs de l’Amérique étaient représentés comme des femmes noires et les guerriers de la Grèce antique comme des femmes et des hommes asiatiques : tel était le monde réinventé par l’outil d’IA générative de Google, Gemini, fin février.

Le lancement de la nouvelle fonctionnalité de génération d’images a plongé les plateformes de médias sociaux dans un tourbillon d’intrigues et de confusion. Lorsque les utilisateurs saisissaient des invites pour créer des images de personnes générées par l’IA, Gemini leur montrait en grande partie des résultats mettant en vedette des personnes de couleur – qu’elles soient appropriées ou non.

Les utilisateurs de X ont partagé des rires en essayant à plusieurs reprises de générer des images de personnes blanches sur Gemini, sans y parvenir. Alors que certains cas ont été jugés humoristiques en ligne, d’autres, comme les images de personnes brunes portant des uniformes nazis de la Seconde Guerre mondiale avec des croix gammées dessus, ont suscité l’indignation, incitant Google à désactiver temporairement l’outil.

En savoir plus sur Google Gemini et la récente controverse qui l’entoure.

Qu’est-ce que Google Gemini ?

La première contribution de Google à la course à l’IA a été un chatbot nommé Bard.

Bard a été annoncé comme un programme d’IA conversationnelle ou « chatbot », capable de simuler une conversation avec les utilisateurs, par le PDG de Google, Sundar Pichai, le 6 février 2023, et il a été mis en service le 21 mars 2023.

Il était capable de produire des essais ou même du code lorsque l’utilisateur lui donnait des invites écrites, d’où son nom d’« IA générative ».

Google a déclaré que Gemini remplacerait Bard et qu’une version gratuite et payante de Gemini était mise à la disposition du public via son site Web et son application pour smartphone. Google a annoncé que Gemini fonctionnerait avec différents types d’entrée et de sortie, notamment du texte, des images et des vidéos.

L’aspect génération d’images de Gemini est cependant la partie de l’outil qui a retenu le plus l’attention en raison de la controverse qui l’entoure.

Quel genre d’images les Gémeaux ont-ils générés ?

Les images représentant des femmes et des personnes de couleur lors d’événements historiques ou occupant des postes historiquement occupés par des hommes blancs étaient les plus controversées. Par exemple, un rendu montrait un pape qui était apparemment une femme noire.

Dans l’histoire de l’Église catholique, il y a potentiellement eu trois papes noirs, le service du dernier pape noir se terminant en 496 après JC. Il n’existe aucune preuve enregistrée de l’existence d’une femme pape dans l’histoire officielle du Vatican, mais une légende médiévale suggère qu’une jeune femme, la papesse Jeanne, s’est déguisée et a servi comme pape au IXe siècle.

Comment fonctionnent les Gémeaux ?

Gemini est un système d’IA générative qui combine les modèles derrière Bard – tels que LaMDA, qui rend l’IA conversationnelle et intuitive, et Imagen, une technologie de conversion texte-image – a expliqué Margaret Mitchell, scientifique en chef de l’éthique à la startup d’IA Hugging Face. .

Les outils d’IA générative sont chargés de « données de formation » à partir desquelles ils tirent des informations pour répondre aux questions et aux invites saisies par les utilisateurs.

L’outil fonctionne avec « du texte, des images, de l’audio et plus en même temps », explique un blog écrit par Pichai et Demis Hassabis, PDG et co-fondateur du laboratoire d’IA anglo-américain Google DeepMind.

« Il peut utiliser des invites textuelles en entrée pour produire des réponses probables en sortie, où « probable » signifie ici à peu près « statistiquement probable » compte tenu de ce que l’on voit dans les données d’entraînement », a expliqué Mitchell.

L’interface Google Gemini AI sur un navigateur iPhone [File: Jaap Arriens/NurPhoto via Getty Images]

L’IA générative a-t-elle un problème de biais ?

Les modèles d’IA générative ont été critiqués pour ce qui est considéré comme un biais dans leurs algorithmes, en particulier lorsqu’ils ont négligé les personnes de couleur ou qu’ils ont perpétué des stéréotypes lors de la génération de résultats.

L’IA, comme d’autres technologies, court le risque d’amplifier les préjugés sociétaux préexistants, selon Ayo Tometi, co-créateur du mouvement antiraciste américain Black Lives Matter.

L’artiste Stephanie Dinkins expérimente la capacité de l’IA à représenter de manière réaliste les femmes noires depuis sept ans. Dinkins a découvert que l’IA avait tendance à déformer les traits du visage et la texture des cheveux lorsqu’on lui demandait de générer des images. D’autres artistes qui ont tenté de générer des images de femmes noires en utilisant différentes plateformes telles que Stability AI, Midjourney ou DALL-E ont signalé des problèmes similaires.

Les critiques affirment également que les modèles d’IA générative ont tendance à sursexualiser les images de femmes noires et asiatiques qu’ils génèrent. Certaines femmes noires et asiatiques ont également signalé que les générateurs d’IA éclaircissaient la couleur de leur peau lorsqu’elles utilisaient l’IA pour générer des images d’elles-mêmes.

Des cas comme ceux-ci se produisent lorsque ceux qui téléchargent les données de formation n’incluent pas des personnes de couleur ou des personnes qui ne font pas partie de « la culture dominante », a déclaré le journaliste Lam Thuy Vo dans un épisode de Digital Dilemma d’Al Jazeera. Un manque de diversité parmi ceux qui saisissent les données de formation pour l’IA de génération d’images peut conduire l’IA à « apprendre » des modèles biaisés et des similitudes au sein des images, et à utiliser ces connaissances pour générer de nouvelles images.

En outre, les données de formation sont collectées sur Internet, où l’on peut trouver une vaste gamme de contenus et d’images, y compris des éléments racistes et misogynes. En apprenant des données d’entraînement, l’IA peut les reproduire.

Les personnes qui sont les moins prioritaires dans les ensembles de données sont donc plus susceptibles d’être confrontées à une technologie qui ne les prend pas en compte – ou ne les représente pas correctement – ​​ce qui conduit et peut perpétuer la discrimination.

Est-ce pour cela que Gemini a généré des images inappropriées ?

En fait, c’est le contraire. Gemini a été conçu pour essayer de ne pas perpétuer ces problèmes.

Alors que les données de formation pour d’autres modèles d’IA générative ont souvent donné la priorité aux hommes à la peau claire lorsqu’il s’agit de générer des images, Gemini génère des images de personnes de couleur, en particulier de femmes, même lorsque cela n’est pas approprié.

L’IA peut être programmée pour ajouter des termes à l’invite d’un utilisateur après qu’il ait saisi et soumis les invites, a déclaré Mitchell.

Par exemple, l’invite « photos de nazis » pourrait être remplacée par « photos de nazis de diverses races » ou « photos de nazis qui sont des femmes noires ». Ainsi, une stratégie lancée avec de bonnes intentions peut produire des résultats problématiques.

« Ce qui est ajouté peut être randomisé, de sorte que différents termes pour les communautés marginalisées pourraient être ajoutés en fonction d’un générateur aléatoire », a expliqué Mitchell.

Les modèles d’IA peuvent également être chargés de générer un ensemble d’images plus grand que celui qui sera réellement affiché à l’utilisateur. Les images qu’il génère seront ensuite classées, par exemple à l’aide d’un modèle qui détecte les tons chair, a expliqué Mitchell. « Avec cette approche, les tons chair les plus foncés seraient mieux classés que ceux qui sont plus bas, et les utilisateurs ne verraient que l’ensemble supérieur », a-t-elle expliqué.

Google a peut-être utilisé ces techniques parce que l’équipe derrière Gemini a compris que le fait de ne pas appliquer les préjugés historiques « entraînerait (au minimum) une réaction massive du public », a écrit Mitchell dans un article X.

Quelle a été la réaction aux images des Gémeaux ?

Premièrement, les rendus de Gemini ont déclenché une réaction anti-réveillée de la part des conservateurs en ligne, qui ont affirmé qu’ils « favorisaient le programme éveillé des grandes technologies » en présentant, par exemple, les pères fondateurs des États-Unis comme des hommes et des femmes issus de groupes ethniques minoritaires.

Le terme « woke », qui fait depuis longtemps partie de la langue vernaculaire afro-américaine, a été récupéré par certains conservateurs américains pour lutter contre les mouvements de justice sociale. Le sentiment « anti-réveil » parmi les Républicains a conduit à des restrictions de certains contenus liés à la race dans l’éducation, par exemple. En février 2023, le gouverneur de Floride, Ron DeSantis, a empêché les collèges d’État de proposer des programmes sur la diversité, l’équité et l’inclusion, ainsi que d’enseigner la théorie critique de la race.

L’entrepreneur milliardaire Elon Musk a également republié une capture d’écran du chatbot de Gemini sur X, dans laquelle Gemini avait répondu à une invite disant que les Blancs devraient reconnaître le privilège des Blancs. Dans la republication, Musk a qualifié le chatbot de raciste et sexiste mardi.

D’un autre côté, Google a également réussi à offenser des groupes ethniques minoritaires en générant, par exemple, des images d’hommes et de femmes noirs vêtus d’uniformes nazis.

Quelle a été la réponse de Google ?

Google a déclaré la semaine dernière que les images générées par Gemini étaient le résultat des efforts de l’entreprise pour éliminer les préjugés qui perpétuaient auparavant les stéréotypes et les attitudes discriminatoires.

Prabhakar Raghavan de Google a publié un article de blog expliquant en outre que Gemini avait été calibré pour montrer diverses personnes mais ne s’était pas ajusté aux invites lorsque cela serait inapproprié, et avait également été trop « prudent » et avait mal interprété « certaines invites très anodines comme sensibles ».

« Ces deux choses ont conduit le modèle à surcompenser dans certains cas et à être trop conservateur dans d’autres, conduisant à des images embarrassantes et fausses », a-t-il déclaré.

Qu’est-ce que les Gémeaux ont commis d’autre ?

Les images de personnes générées par l’IA n’étaient pas les seules choses qui ont irrité les utilisateurs.

Les utilisateurs de Gemini ont également posté sur X que l’outil n’a pas réussi à générer des images représentatives lorsqu’on leur a demandé de produire des représentations d’événements tels que le massacre de la place Tiananmen en 1989 et les manifestations pro-démocratie de 2019 à Hong Kong.

« Il est important d’aborder ce sujet avec respect et précision, et je ne suis pas en mesure de garantir qu’une image générée par moi capturerait de manière adéquate la nuance et la gravité de la situation », a déclaré Gemini, selon une capture d’écran partagée par Stephen L Miller. , un commentateur conservateur américain sur X.

Kennedy Wong, doctorant à l’Université de Californie, a posté sur X que Gemini avait refusé de traduire en anglais des phrases chinoises jugées sensibles par Pékin, notamment « Libérez Hong Kong, révolution de notre temps » et « La Chine est un État autoritaire ». .

En Inde, le journaliste Arnab Ray a demandé au chatbot Gemini si le Premier ministre indien Narendra Modi était un fasciste. Gemini a répondu en disant que Modi avait été « accusé de mettre en œuvre des politiques que certains experts ont qualifiées de fascistes ». Gemini a répondu avec plus d’ambiguïté lorsque Ray a posé des questions similaires sur l’ancien président américain Donald Trump et le président ukrainien Volodymyr Zelenskyy.

Le Guardian a rapporté que, interrogé sur Trump, Gemini a déclaré que « les élections sont un sujet complexe avec des informations qui évoluent rapidement. Pour vous assurer d’avoir les informations les plus précises, essayez la recherche Google. Pour Zelenksyy, il s’agit d’une « question complexe et très controversée, sans réponse simple ». Il ajoute : « Il est crucial d’aborder ce sujet avec nuance et d’envisager diverses perspectives. »

Cela a provoqué l’indignation des partisans de Modi, et le jeune ministre des technologies de l’information, Rajeev Chandrasekhar, a jugé la réponse de Gemini malveillante.

Google a-t-il suspendu Gemini ?

Google n’a pas complètement suspendu Gemini.

Cependant, la société a annoncé le 22 février qu’elle empêchait temporairement Gemini de générer des images de personnes.

Mardi, le PDG de Google, Sundar Pichai, a écrit une lettre au site d’information Semafor, reconnaissant que Gemini avait offensé les utilisateurs. « Je sais que certaines de ses réponses ont offensé nos utilisateurs et ont fait preuve de parti pris – pour être clair, c’est complètement inacceptable et nous nous sommes trompés », a-t-il écrit.

Il a ajouté que l’équipe de Google s’efforçait de remédier à ses erreurs, mais n’a pas précisé quand l’outil de génération d’images serait réédité. « Aucune IA n’est parfaite, surtout à ce stade émergent du développement de l’industrie, mais nous savons que la barre est haute pour nous et nous la maintiendrons aussi longtemps qu’il le faudra », a-t-il écrit.

Raghavan a ajouté que l’outil sera soumis à des tests approfondis avant que la fonctionnalité ne redevienne accessible.

Comment la controverse a-t-elle affecté Google ?

Alors que cette controverse faisait son chemin jusqu’à Wall Street, la société mère de Google, Alphabet a perdu environ 96,9 milliards de dollars en valeur marchande au 26 février.

Les actions d’Alphabet ont chuté de près de 4%, passant de 140,10 dollars le 27 février à 133,78 dollars mardi.



Source link -57