Le côté obscur de l’intelligence artificielle, créer les avatars viraux prenant les médias sociaux : objectivation et racisme


Il s’est avéré que l’intelligence artificielle Lensa AI, qui a créé des avatars qui ont récemment pris le contrôle de tous les médias sociaux, est semée d’embûches. De nombreux utilisateurs ont déclaré que l’application crée des avatars qui présentent les femmes comme des objets sexuels.

Les technologies d’intelligence artificielle, qui ont fait des progrès significatifs, sont récemment devenues très populaires. Les œuvres créées avec des systèmes tels que DALL-E et Midjourney ont capturé les médias Internet. De plus, il y a une explosion des applications qui créent des avatars de personnes, et nous voyons ces images apparaître avec le soutien de l’intelligence artificielle, quelle que soit la plateforme que nous visitons.

Créé par Prisma Labs Lensa IA et l’un d’eux. Cette application, qui peut être utilisée moyennant certains frais, s’appelle ‘Magic Avatars’. Il a une fonctionnalité appelée « Magic Avatars ». Cela permet aux utilisateurs de créer des avatars qui peuvent vraiment être décrits comme magiques. Cependant, cette situation nous montre également un problème d’intelligence artificielle en faisant surgir certains problèmes. Jetons un coup d’œil à ce problème.

Tout d’abord, qu’est-ce que cette Lensa AI ? Comment ça marche ?

Lensa AI est une application créée par Prisma Labs comme nous l’avons mentionné. Lensa, qui a récemment été au sommet des magasins d’applications, existe en fait depuis 2018. Cependant, plus tôt ce mois-ci, le ‘« Avatars magiques » fonctionnalité l’a rendu populaire. Avec cette fonctionnalité prise en charge par l’intelligence artificielle, qui peut être utilisée en Turquie avec des prix à partir de 88 TL, les photos que vous ajoutez peuvent être transformées en avatars uniques de différents thèmes (tels que des personnages futuristes ou animés).

Lensa est un modèle d’apprentissage en profondeur d’intelligence artificielle open source qui exploite une base de données d’artefacts sur Internet. Diffusion stable les usages. Cette base de données s’appelle LAION-5B et utilise 5,85 milliards de paires texte-image filtrées par un réseau de neurones appelé CLIP. Une nouvelle version de Stable Diffusion, un modèle d’apprentissage en profondeur qui crée des images à partir de texte, qui a été publié en 2022, a également été publiée le mois dernier.

Si vous souhaitez en savoir plus sur Lensa AI et sur son utilisation, vous pouvez parcourir notre contenu ci-dessous ;

NOUVELLES CONNEXES

Comment faire pour que ces photos de profil soient virales partout ? Nous avons expliqué étape par étape…

On dit que Lensa AI crée des avatars qui objectivent les femmes

Bien que les systèmes d’intelligence artificielle soient avancés, ils ont encore quelques problèmes. Le meilleur exemple en est que les intelligences artificielles qui convertissent du texte en images ont des problèmes pour créer des mains et des doigts. Cependant, selon Polygon, la situation est légèrement différente à Lensa.

Informations récentes, femmes de Lensa AI tu as sexualisé et a révélé certaines conclusions racistes. De nombreux utilisateurs sur les réseaux sociaux font référence aux femmes dans l’application. gros seins et décolleté Bien qu’il n’y ait pas une telle demande en disant qu’il a été ajouté même des images nues ont été créées signalé.

NOUVELLES CONNEXES

À quoi ressembleraient les personnages de Marvel s’ils étaient des bébés ? L’intelligence artificielle a répondu

Olivia Snow de l’Université de Californie a également écrit dans Wired que même lorsqu’elle ajoutait des photos de sa propre enfance, l’application la maintenait. objet sexuel Il a déclaré avoir créé des images qui ont été lancées en tant que Lorsque les propriétaires de l’application ont été interrogés sur ce problème, l’équipe a déclaré que Snow avait délibérément violé les conditions d’utilisation. Les politiques de Lensa interdisent l’utilisation d’images d’enfants tout en interdisant les photos nues. Les utilisateurs doivent également déclarer qu’ils ont plus de 18 ans.

Il y a même des résultats racistes et des avatars de nudité selon les utilisateurs





Source link -52