Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les enfants s’appuient souvent sur leur propre instinct lorsqu’ils sont confrontés à des menaces pour leur sécurité en ligne, telles que des contenus explicites ou des manipulations en ligne, révèle une nouvelle étude.
Les résultats révèlent une vérité inconfortable sur la façon dont les enfants sont laissés à eux-mêmes lorsqu’ils naviguent dans le monde numérique, augmentant ainsi leur vulnérabilité aux dangers.
Menée par les organisations non gouvernementales ECPAT International, Eurochild et Terre des Hommes Pays-Bas, l’étude a impliqué des discussions de groupe avec 483 enfants de 15 pays, dont dix États membres de l’UE.
Beaucoup de ces enfants ont déclaré qu’ils préféraient garder leurs activités en ligne pour eux et qu’ils avaient du mal à parler aux adultes des risques auxquels ils sont confrontés en ligne. D’autres ont déclaré filtrer ce qu’ils disent à leurs parents et tuteurs sur les préjudices qu’ils subissent.
Ces préjudices comprennent la cyberintimidation, les contenus violents ou les expériences négatives en matière de santé mentale. Mais dans les 15 pays étudiés, les abus et l’exploitation sexuels en ligne – tels que le toilettage, le matériel sexuel auto-produit et les abus sexuels sur enfants diffusés en direct – constituent la plus grande menace pour les mineurs.
« Nous constatons que les enfants se sentent très seuls pour assurer leur sécurité contre les abus et l’exploitation sexuels. Et bien sûr, c’est une énorme responsabilité », a déclaré Eva Notté, conseillère technique sur l’exploitation des enfants pour Terre des Hommes Pays-Bas.
« Mais nous constatons qu’à travers leur propre comportement, ils essaient de s’autocensurer ce qu’ils font. Ils essaient de se méfier des risques, mais ils manquent vraiment des outils et des informations nécessaires pour naviguer efficacement dans le monde en ligne », a-t-elle ajouté.
Le rapport intervient dans un contexte d’impasse au sein des institutions européennes nouvelle loi prévue lutter contre l’exploitation des enfants en ligne en utilisant les technologies émergentes pour détecter les matériels d’abus sexuels sur enfants (CSAM) nouveaux et existants et les activités de préparation d’enfants.
La loi s’est heurtée à une vive opposition de la part des défenseurs de la vie privée numérique, qui affirment qu’autoriser les plateformes à espionner le contenu constituerait une grave atteinte au droit à la vie privée en ligne.
Mais les ONG affirment que l’étude souligne la nécessité urgente pour les pays de l’UE de trouver un compromis afin que des garde-fous juridiques soient en place pour rendre l’Internet plus sûr pour les enfants.
« Il existe un besoin urgent de cadres réglementaires qui mettent réellement cette responsabilité et ce fardeau non pas sur les enfants, mais sur les fournisseurs de services en ligne », a expliqué Fabiola Bas Palomares, chargée de politique et de plaidoyer pour Eurochild. « Nous devons travailler ensemble pour garantir que les enfants soient protégés contre les abus sexuels sur enfants en ligne. »
Cela survient également dans un contexte d’inquiétude croissante concernant l’utilisation de l’IA pour générer du matériel d’abus sexuels sur des enfants profondément faux.
Selon le Centre commun de recherche de l’UE, une grande partie de ces contenus abusifs est générée par les adolescents eux-mêmes, ce qui montre à quel point les enfants doivent également être sensibilisés aux dangers de la diffusion et de la création de contenus abusifs.
Clé de rôle des plateformes
Alors que les conclusions de l’étude ont été dévoilées lundi à Bruxelles, les ONG ont appelé les plateformes numériques à se montrer à la hauteur et à jouer leur rôle dans la lutte contre les contenus illégaux qui mettent en danger la sécurité des enfants.
S’adressant à Euronews, Tomas Hartman, responsable des politiques publiques chez Snap Inc., a déclaré que la société et son application Snapchat – qui compte quelque 102 millions d’utilisateurs enregistrés dans l’UE – étaient prêtes à jouer leur rôle dans la lutte contre l’exploitation sexuelle des enfants en ligne.
« Nous sommes parfaitement conscients que notre application est utilisée par de nombreux jeunes, et c’est pourquoi la sécurité et la confidentialité de nos utilisateurs sont notre priorité, en particulier pour les mineurs », a déclaré Hartman, énumérant plusieurs mesures de protection mises en place par Snapchat pour protéger les adolescents. utilisateurs, comme limiter les paramètres de contact aux amis et aux contacts téléphoniques et désactiver le partage de position par défaut.
Hartman a également déclaré que le projet de loi européenne visant à lutter contre les contenus pédopornographiques (CSAM) est « absolument crucial » pour Snapchat.
« Il est important pour nous de pouvoir rechercher de manière proactive ce matériel CSAM connu. Et nous disposons de technologies fiables pour le faire : nous utilisons des photos ADN pour les images et CSAI Match pour les vidéos », a-t-il expliqué. « C’est notre priorité absolue. »
L’application Snapchat, utilisée principalement par les jeunes utilisateurs pour partager des images qui disparaissent après avoir été visionnées, impose un âge minimum de 13 ans et des paramètres de confidentialité supplémentaires pour les utilisateurs âgés de 13 à 17 ans. Il a fait l’objet d’un examen minutieux pour ne pas avoir réussi à éloigner les utilisateurs mineurs de sa plateforme.
Snapchat, ainsi que Meta, ont reçu en novembre dernier une demande d’informations de la Commission européenne sur les mesures qu’elle prend pour « se conformer à leurs obligations liées à la protection des mineurs ».
L’une des préoccupations concerne le chatbot « My AI » disponible pour les utilisateurs de Snapchat, alimenté par ChatGPT de Microsoft. Sur son site Internet, Snapchat reconnaît que le chatbot « peut inclure du contenu biaisé, incorrect, nuisible ou trompeur ».