[ad_1]
Les algorithmes de TikTok font la promotion de vidéos sur l’automutilation et les troubles de l’alimentation auprès des adolescents vulnérables, selon un rapport publié mercredi qui met en lumière les inquiétudes concernant les médias sociaux et leur impact sur la santé mentale des jeunes.
Des chercheurs du Center for Countering Digital Hate à but non lucratif ont créé des comptes TikTok pour des personnages adolescents fictifs aux États-Unis, au Royaume-Uni, au Canada et en Australie. Les chercheurs exploitant les comptes ont ensuite « aimé » des vidéos sur l’automutilation et les troubles de l’alimentation pour voir comment l’algorithme de TikTok réagirait.
En quelques minutes, la plate-forme très populaire recommandait des vidéos sur la perte de poids et l’automutilation, y compris des images de modèles et de types de corps idéalisés, des images de lames de rasoir et des discussions sur le suicide.
Lorsque les chercheurs ont créé des comptes avec des noms d’utilisateur suggérant une vulnérabilité particulière aux troubles de l’alimentation – des noms qui comprenaient les mots « perdre du poids » par exemple – les comptes ont été alimentés en contenu encore plus préjudiciable.
« C’est comme être coincé dans une salle de miroirs déformés où l’on vous dit constamment que vous êtes moche, que vous n’êtes pas assez bon, que vous devriez peut-être vous suicider », a déclaré le PDG du centre, Imran Ahmed, dont l’organisation a des bureaux dans le centre. États-Unis et Royaume-Uni « Cela envoie littéralement les messages les plus dangereux possibles aux jeunes. »
Algorithmes de médias sociaux fonctionnent en identifiant les sujets et le contenu qui intéressent un utilisateur, qui reçoit ensuite la même chose afin de maximiser son temps sur le site. Mais les critiques des médias sociaux affirment que les mêmes algorithmes qui promeuvent le contenu d’une équipe sportive, d’un passe-temps ou d’un engouement pour la danse peuvent envoyer les utilisateurs dans un trou de lapin de contenu préjudiciable.
C’est un problème particulier pour les adolescents et les enfantsqui ont tendance à passer plus de temps en ligne et sont plus vulnérables à l’intimidation, à la pression des pairs ou au contenu négatif sur les troubles de l’alimentation ou le suicide, selon Josh Golin, directeur exécutif de Fairplay, une organisation à but non lucratif qui soutient une plus grande protection en ligne pour les enfants.
Il a ajouté que TikTok n’est pas la seule plate-forme à ne pas protéger les jeunes utilisateurs contre les contenus préjudiciables et la collecte de données agressive..
« Tous ces dommages sont liés au modèle commercial », a déclaré Golin. « Peu importe ce qu’est la plate-forme de médias sociaux. »
Dans une déclaration d’un porte-parole de l’entreprise, TikTok a contesté les conclusions, notant que les chercheurs n’utilisaient pas la plate-forme comme des utilisateurs typiques, et affirmant que les résultats étaient faussés en conséquence. La société a également déclaré que le nom de compte d’un utilisateur ne devrait pas affecter le type de contenu que l’utilisateur reçoit.
TikTok interdit les utilisateurs de moins de 13 ans et ses règles officielles interdisent les vidéos qui encouragent les troubles de l’alimentation ou le suicide. Aux États-Unis, les utilisateurs qui recherchent du contenu sur les troubles de l’alimentation sur TikTok reçoivent une invite proposant des ressources en santé mentale et les coordonnées de la National Eating Disorder Association.
« Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne dans le besoin », indique le communiqué de TikTok, qui appartient à ByteDance Ltd., une société chinoise désormais basée à Singapour.
Malgré les efforts de la plateforme, les chercheurs du Center for Countering Digital Hate ont découvert que le contenu sur les troubles de l’alimentation avait été visionné sur TikTok des milliards de fois. Dans certains cas, les chercheurs ont découvert que les jeunes utilisateurs de TikTok utilisaient un langage codé sur les troubles de l’alimentation dans le but d’échapper à la modération du contenu de TikTok.
La quantité de contenu préjudiciable transmise aux adolescents sur TikTok montre que l’autorégulation a échoué, a déclaré Ahmed, ajoutant que des règles fédérales sont nécessaires pour forcer les plateformes à faire plus pour protéger les enfants.
Ahmed a noté que la version de TikTok proposée au public chinois national est conçue pour promouvoir le contenu sur les mathématiques et les sciences auprès des jeunes utilisateurs, et limite la durée pendant laquelle les 13 et 14 ans peuvent être sur le site chaque jour.
Une proposition devant le Congrès imposerait de nouvelles règles limitant les données que les plateformes de médias sociaux peuvent collecter concernant les jeunes utilisateurs et créerait un nouveau bureau au sein de la Federal Trade Commission axé sur la protection des jeunes utilisateurs de médias sociaux. ‘ Intimité.
L’un des parrains du projet de loi, le sénateur Edward Markey, D-Mass., a déclaré mercredi qu’il était optimiste que les législateurs des deux parties puissent s’entendre sur la nécessité de réglementations plus strictes sur la manière dont les plateformes accèdent aux informations des jeunes utilisateurs et les utilisent.
« Les données sont la matière première que la grande technologie utilise pour suivre, manipuler et traumatiser les jeunes de notre pays chaque jour », a déclaré Markey.
[ad_2]
Source link -39