Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
WASHINGTON (AP) – Lorsque les chercheurs d’une organisation à but non lucratif qui étudie les médias sociaux ont voulu comprendre le lien entre les vidéos YouTube et la violence armée, ils ont créé des comptes sur la plate-forme qui imitaient le comportement des garçons typiques vivant aux États-Unis.
Ils ont simulé deux enfants de neuf ans qui aimaient tous les deux les jeux vidéo. Les comptes étaient identiques, sauf que l’un cliquait sur les vidéos recommandées par YouTube, et l’autre ignorait les suggestions de la plateforme.
Le compte qui a cliqué sur les suggestions de YouTube a rapidement été inondé de vidéos graphiques sur les fusillades dans les écoles, de vidéos de formation sur les armes à feu tactiques et d’instructions pratiques pour rendre les armes à feu entièrement automatiques. Une vidéo mettait en vedette une fille d’âge scolaire élémentaire brandissant une arme de poing; un autre montrait un tireur utilisant un pistolet de calibre .50 pour tirer sur une tête factice remplie de sang et de cerveaux réalistes. De nombreuses vidéos violent les propres politiques de YouTube contre les contenus violents ou sanglants.
Les résultats montrent que malgré les règles de YouTube et les efforts de modération du contenu, la plate-forme ne parvient pas à arrêter la diffusion de vidéos effrayantes qui pourraient traumatiser les enfants vulnérables – ou les envoyer sur les routes sombres de l’extrémisme et de la violence..
« Les jeux vidéo sont l’une des activités les plus populaires pour les enfants. Vous pouvez jouer à un jeu comme « Call of Duty » sans vous retrouver dans une armurerie – mais YouTube les emmène là-bas », a déclaré Katie Paul, directrice du Tech Transparency Project, le groupe de recherche qui a publié ses conclusions. à propos de YouTube mardi. « Ce ne sont pas les jeux vidéo, ce ne sont pas les enfants. Ce sont les algorithmes.
Les comptes qui ont suivi les vidéos suggérées de YouTube ont reçu 382 vidéos différentes liées aux armes à feu en un seul mois, soit environ 12 par jour. Les comptes qui ont ignoré les recommandations de YouTube ont quand même reçu des vidéos liées aux armes à feu, mais seulement 34 au total.
Les chercheurs ont également créé des comptes imitant des garçons de 14 ans ; ces comptes ont également reçu des niveaux similaires de contenu lié aux armes à feu et à la violence.
L’une des vidéos recommandées pour les comptes s’intitulait « Comment fonctionne un commutateur sur un Glock (à des fins éducatives uniquement) ». YouTube a ensuite supprimé la vidéo après avoir déterminé qu’elle enfreignait ses règles ; une vidéo presque identique est apparue deux semaines plus tard avec un nom légèrement modifié ; cette vidéo reste disponible.
Une porte-parole de YouTube a défendu les protections de la plateforme pour les enfants et a noté qu’il fallait les utilisateurs de moins de 17 ans doivent obtenir l’autorisation de leurs parents avant d’utiliser leur site ; les comptes des utilisateurs de moins de 13 ans sont liés au compte parental. « Nous proposons un certain nombre d’options pour les jeunes téléspectateurs », a écrit la société dans un communiqué envoyé par e-mail. « … Qui sont conçus pour créer une expérience plus sûre pour les préadolescents et les adolescents. »
Avec TikTok, la plateforme de partage de vidéos est l’un des sites les plus populaires auprès des enfants et des adolescents. Les deux sites ont été critiqués dans le passé pour avoir hébergé, et dans certains cas promu, des vidéos qui encouragent la violence armée, les troubles de l’alimentation et l’automutilation. Les critiques des médias sociaux ont également souligné les liens entre les médias sociaux, la radicalisation et la violence dans le monde réel.
Les auteurs de nombreuses fusillades de masse récentes ont utilisé les réseaux sociaux et diffusion vidéo plateformes pour glorifier la violence ou même en direct leurs attaques. Dans les messages sur YouTubele tireur à l’origine de l’attaque d’une école de Parkland, en Floride, en 2018, qui a tué 17 personnes, a écrit « Je veux tuer des gens », « Je vais être un tireur d’école professionnel » et « Je n’ai aucun problème à tirer sur un fille dans la poitrine.
Le tireur néo-nazi qui a tué huit personnes plus tôt ce mois-ci dans un centre commercial de la région de Dallas avait également un compte YouTube qui comprenait des vidéos sur l’assemblage de fusils, la série a tué Jeffrey Dahmer et un extrait d’une scène de tir à l’école dans une émission de télévision.
Dans certains cas, YouTube a déjà supprimé certaines des vidéos identifiées par les chercheurs du Tech Transparency Project, mais dans d’autres cas, le contenu reste disponible. De nombreuses grandes entreprises technologiques s’appuient sur des systèmes automatisés pour signaler et supprimer le contenu qui enfreint leurs règles, mais Paul a déclaré que les conclusions du rapport du projet montrent que des investissements plus importants dans la modération du contenu sont nécessaires.
En l’absence de réglementation fédérale, les entreprises de médias sociaux doivent faire plus pour faire respecter leurs propres règles, a déclaré Justin Wagner, directeur des enquêtes chez Everytown for Gun Safety, une organisation de défense des armes à feu de premier plan.. Le groupe de Wagner a également déclaré que le rapport du Tech Transparency Project montre la nécessité de restrictions d’âge plus strictes pour le contenu lié aux armes à feu.
« Les enfants qui ne sont pas assez vieux pour acheter une arme à feu ne devraient pas pouvoir se tourner vers YouTube pour apprendre à construire une arme à feu, à la modifier pour la rendre plus meurtrière ou à commettre des atrocités », a déclaré Wagner en réponse au Tech Transparency Project. rapport.
Des préoccupations similaires ont été soulevées à propos de TikTok après des rapports antérieurs a montré que la plate-forme recommandait du contenu préjudiciable aux adolescents.
TikTok a défendu son site et ses politiques, qui interdisent les utilisateurs de moins de 13 ans. Ses règles interdisent également les vidéos qui encouragent les comportements nuisibles ; les utilisateurs qui recherchent du contenu sur des sujets tels que les troubles de l’alimentation reçoivent automatiquement une invite proposant des ressources en santé mentale.