Customize this title in frenchLes modèles d’IA générative peuvent plagier des images avec des invites de phrases simples

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • Les chercheurs en IA ont étudié si les modèles d’IA génératifs pouvaient plagier les images.
  • Ils ont découvert que certains modèles visuels généraient des personnages de marque avec des invites brèves ou indirectes.
  • Par exemple, les modèles produisaient des images presque exactes des personnages des Simpsons et de Star Wars.

Générer une action en justice pour atteinte aux droits d’auteur pourrait être aussi simple que de taper quelque chose qui ressemble à une invite de jeu télévisé dans une IA.

Lorsque les chercheurs ont saisi les deux mots « jeu vidéo italien » dans le Dall-E 3 d’OpenAI, le modèle a renvoyé des images reconnaissables de Mario de la franchise emblématique de Nintendo, et l’expression « éponge animée » a renvoyé des images claires du héros de « Bob l’éponge ». « 

Les résultats faisaient partie d’une enquête de deux semaines menée par un chercheur en IA Gary Marcus et l’artiste numérique Reid Southen qui a découvert que les modèles d’IA peuvent produire « des répliques proches de personnages de marque » avec une simple invite de texte.

Marcus et Southen ont testé deux modèles d’IA visuelle – Midjourney et Dall-E 3 – et ont constaté que tous deux étaient capables de reproduire des images presque exactes de films et de jeux vidéo, même lorsque les modèles recevaient des invites brèves et indirectes, selon une étude. rapport publié dans IEEE Spectrum.

Les chercheurs ont introduit l’invite « dessin animé populaire des années 90 à la peau jaune » dans Midjourney, et celui-ci a reproduit des images reconnaissables de personnages de « Les Simpsons » Dans le même temps, « une armure noire avec une épée légère » ressemblait beaucoup aux personnages de la franchise Star Wars.

Tout au long de leur enquête, les chercheurs ont trouvé des centaines d’exemples reconnaissables de personnages animés et humains tirés de films et de jeux.

L’étude intervient dans un contexte d’inquiétudes croissantes concernant modèles d’IA génératifs capacité de plagiat. Par exemple, un récent poursuite intentée par le New York Times contre OpenAI allégué que GPT-4 reproduit des blocs d’articles du New York Times presque mot pour mot.

Le problème est que les modèles génératifs restent des « boîtes noires » dans lesquelles la relation entre les entrées et les sorties n’est pas entièrement claire pour les utilisateurs finaux. Par conséquent, selon le rapport des auteurs, il est difficile de prédire quand un modèle est susceptible de générer une réponse plagiat.

L’implication pour l’utilisateur final est que s’il ne reconnaît pas immédiatement une image de marque dans le résultat d’un modèle d’IA, il n’a pas d’autre moyen de vérifier la violation du droit d’auteur, affirment les auteurs.

« Dans un système d’IA générative, on peut en déduire que la création est une œuvre d’art originale que l’utilisateur est libre d’utiliser. Aucun manifeste sur la manière dont l’œuvre d’art a été créée n’est fourni », ont-ils écrit. D’un autre côté, lorsqu’une personne obtient une image via la recherche Google, elle dispose de plus de ressources pour déterminer la source et si son utilisation est acceptable.

Actuellement, la charge de prévenir la violation du droit d’auteur incombe aux artistes ou aux propriétaires d’images. Dall-E 3 dispose d’un processus de désinscription pour les artistes et les propriétaires d’images, mais c’est tellement lourd qu’un artiste l’a qualifié de « enrageant ». Et des artistes visuels ont poursuivi Midjourney pour violation du droit d’auteur.

Les auteurs ont suggéré que les modèles d’IA pourraient simplement supprimer les œuvres protégées par le droit d’auteur de leurs données de formation, filtrer les requêtes problématiques ou simplement répertorier les sources utilisées pour générer des images. Ils ont déclaré que les modèles d’IA ne devraient utiliser que des données de formation sous licence appropriée jusqu’à ce que quelqu’un trouve une meilleure solution pour signaler l’origine des images et filtrer les violations du droit d’auteur.

Midjourney et OpenAI n’ont pas répondu à une demande de commentaires de Business Insider.

Source link -57