Customize this title in frenchDes images deepfakes et nues d’adolescentes choquent une ville espagnole : mais est-ce un crime d’IA ?

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Plus de 20 filles en Espagne ont déclaré avoir reçu des images nues d’elles-mêmes générées par l’IA. Mais les deepfakes peuvent-ils être légalement punis ?

À leur retour à l’école après les vacances d’été, plus de vingt filles d’Almendralejo, une ville du sud de l’Espagne, ont reçu des photos d’elles nues sur leur téléphone portable.

PUBLICITÉ

Aucun d’entre eux n’avait pris de photos, mais elles semblaient tout à fait réelles.

Les images avaient été volées sur leurs comptes Instagram, modifiées grâce à une application d’intelligence artificielle puis partagées dans des groupes Whatsapp.

Les adolescents étaient entièrement habillés sur les vraies photos, mais l’application rendait la nudité complètement réelle.

Aujourd’hui, les parents et les procureurs se demandent si un crime a été commis, même si les images sont réellement réelles : les images pourraient-elles être considérées comme de la pédopornographie ?

« Les montages sont super réalistes, c’est très dérangeant et un vrai scandale », a écrit Miriam Al Adib, l’une des mères des filles, sur son compte Instagram.

« Ma fille m’a dit avec beaucoup de dégoût : ‘Maman, regarde ce qu’ils m’ont fait' », a-t-elle ajouté.

Al Adib a même affirmé que les photos auraient pu parvenir sur des portails Internet tels que Onlyfans ou des sites pornographiques. Pendant ce temps, les filles subissaient les commentaires de leurs camarades de classe.

« Ne vous plaignez pas, les filles téléchargent des photos qui montrent presque leur chatte », a dit l’une des filles.

La plus jeune des filles n’a que 11 ans et n’est pas encore au lycée.

Une autre mère, Fátima Gómez, a déclaré à la télévision Extremadura que sa fille avait été victime de chantage.

Lors d’une conversation avec un garçon sur les réseaux sociaux, il lui a demandé de l’argent et lorsqu’elle a refusé, il lui a envoyé une photo nue.

PUBLICITÉ

Les mères se sont organisées pour porter plainte et la Police Nationale a ouvert une enquête et a déjà identifié plusieurs mineurs qui seraient impliqués.

Certaines d’entre elles sont des camarades de classe des filles, a révélé un homme politique local.

L’affaire a été portée devant le parquet pour mineurs et le maire de la ville lui-même a prévenu : « Cela a peut-être commencé comme une plaisanterie, mais les implications sont bien plus grandes et pourraient avoir de graves conséquences pour ceux qui ont réalisé ces photos ».

10 € pour 25 photos de nu

Les créations hyperréalistes d’intelligence artificielle, mieux connues sous le nom de deepfakes, ont été réalisées avec l’application ClothOff.

Avec le slogan « Déshabillez n’importe qui, déshabillez les filles gratuitement », l’application permet aux utilisateurs de déshabiller toute personne apparaissant dans la galerie de photos de leur téléphone. Il en coûte 10 € pour créer 25 images nues.

PUBLICITÉ

Bien que la nudité ne soit pas réelle, les mères disent que la détresse des filles en voyant leur photo est bien réelle.

« Vous n’êtes pas conscient des dommages que vous avez causés à ces filles et vous n’êtes pas non plus conscient du crime que vous avez commis », a déclaré Al Adib sur son compte Instagram dans un message adressé aux personnes qui ont partagé les photos.

« L’une d’elles a dit à ma fille qu’il avait fait des ‘choses’ avec sa photo », a déclaré une autre mère au journal espagnol El País.

Mais les deepfakes peuvent-ils être légalement punis ?

« Une question est de savoir si cela doit être puni et une autre est de savoir si cela peut être puni selon la manière dont la loi est rédigée en Espagne et dans d’autres pays de l’UE », a déclaré à Euronews Manuel Cancio, professeur de droit pénal à l’Université autonome de Madrid.

PUBLICITÉ

Le professeur souligne qu’il existe un vide juridique car l’utilisation de visages de mineurs sur les photographies affecte leur vie privée, mais lorsqu’il s’agit de délits dans lesquels des images intimes sont diffusées, c’est l’image dans son ensemble qui viole la vie privée.

« Puisqu’elle est générée par un deepfake, la vie privée réelle de la personne en question n’est pas affectée. L’effet qu’elle a (sur la victime) peut être très similaire à une vraie photo nue, mais la loi est en retard », ajoute-t-il. .

Cancio affirme que le cadre juridique qui pourrait fonctionner dans ce cas serait un crime contre l’intégrité morale, « une sorte de boîte catastrophe pour des crimes que personne ne sait où mettre ».

En mars 2022, la Commission européenne a proposé de criminaliser ce type d’infraction dans une directive sur la cybercriminalité. Selon le professeur, le Code pénal néerlandais est le seul à contenir une disposition traitant de cette question.

Peut-on considérer cela comme de la pédopornographie ?

Les experts sont divisés quant à savoir si le crime pourrait être considéré comme une distribution de pédopornographie, ce qui entraînerait une peine plus élevée, et préfèrent pécher par excès de prudence.

Pour Leandro Núñez, avocat spécialiste des nouvelles technologies au sein du cabinet d’Audens, l’essentiel n’est pas de savoir si la photo est réelle à 100 %, mais si elle semble l’être.

« Le plus important est de savoir si le visage est identifiable. On pourrait parler de pédopornographie, de crimes contre l’intégrité morale ou de diffusion d’images à contenu sexuel non consensuel », a déclaré l’avocat à Euronews.

« Dans le cas d’un crime contre l’intégrité morale, cela serait considéré comme un crime moindre, donc il entraînerait une peine moindre de six mois à deux ans de prison », ajoute-t-il.

D’autres experts, comme Eloi Font, avocat chez Font Advocats, un cabinet d’avocats spécialisé dans le droit du numérique, estiment que cela pourrait être qualifié de délit assimilable à la reproduction d’images sexuelles de mineurs.

Dans ce cas, la peine pourrait être comprise entre cinq et neuf ans de prison.

Source link -57