Andrew Tate hante YouTube

[ad_1]

Andrew Tate, l’influenceuse anti-féministe réputée pour détester les femmes, fumer d’énormes cigares tout le temps et prétendre frapper un morceau de bois 1 000 fois par jour, a été bannie de Facebook, Instagram, TikTok, Twitch et YouTube en août dernier pour discours de haine ; il a ensuite été arrêté en décembre et inculpé de divers crimes liés à une opération présumée de trafic sexuel, notamment de viol. (Tate a insisté sur le fait qu’il est innocent.) Bizarrement, il n’est pas vraiment parti. Les enseignants s’inquiètent toujours de l’influence que ses horribles idées sur les femmes en tant que propriété ont sur les adolescents. Et son visage est toujours partout sur Internet, car ses fans (et certains détracteurs) ne cessent de le re-télécharger, encore et encore.

En particulier, les utilisateurs du nouveau service vidéo court de YouTube (évidemment conçu pour concurrencer TikTok) disent qu’ils n’ont pas pu s’éloigner de Tate. Bien que YouTube n’autorise pas les utilisateurs à republier d’anciennes vidéos de la chaîne interdite de Tate, les gens sont libres de partager des clips de lui à partir d’autres sources. Sur Reddit, vous pouvez faire défiler plusieurs versions de la même question : « Existe-t-il un moyen d’arrêter de voir le contenu d’Andrew Tate ? » Vous pourriez trouver de la commisération (« tous les autres clips en sont un de ce crétin »), mais vous ne trouverez pas beaucoup de réponses satisfaisantes. De nombreuses personnes qui publient sur la capacité de Tate à se cacher dans le flux YouTube Shorts affirment qu’elles ne font rien qui indiquerait qu’elles souhaitent le voir. (« La plupart des choses que je regarde sur YouTube sont liées à la production musicale, à la peinture numérique, à l’histoire de la mode, à l’asmr et au contenu léger pour se détendre », a écrit un commentateur de Reddit, perplexe.) D’autres ont déclaré qu’ils donnaient des commentaires explicites qui semblent être ignoré : « J’appuie sur « ne pas recommander » à chaque fois que son contenu est recommandé, mais rien ne fonctionne. Dois-je simplement rester en dehors des réseaux sociaux jusqu’à sa mort ?

La présence continue de Tate est un mystère pour les utilisateurs, mais cela a du sens dans le contexte des difficultés actuelles de YouTube. Les courts métrages font partie des efforts de YouTube pour attirer les téléspectateurs de TikTok et inverser la baisse des revenus publicitaires. Tate était une star énorme et riche, ce qui signifie que republier des clips de lui, ou même des clips de critiques ou de parodies de lui, est un moyen fiable pour les créateurs de contenu à faible effort de gagner l’engagement et potentiellement de tirer profit.

L’automne dernier, YouTube a annoncé qu’il apporterait des publicités à Shorts et partagerait les revenus avec les créateurs, ce qui était nécessaire s’il voulait attirer des talents qui pourraient concurrencer de manière significative ceux de TikTok. Ce programme de partage des revenus a finalement démarré début février, comme indiqué dans un rapport de Media Matters qui affirmait que Shorts était « en proie au vitriol anti-LGBTQ, au racisme, à la misogynie et à la désinformation sur le COVID-19 ». Le rapport cite un tweet du populaire YouTuber Hank Green, dont la chaîne, Vlogbrothers (qu’il partage avec son frère, l’auteur John Green), compte plus de 3,5 millions d’abonnés. Green a explicitement déclaré qu’il estimait que l’algorithme de recommandation de YouTube Shorts était pire que celui de TikTok : « C’est comme, ‘nous avons remarqué que vous aimez la physique, pourrais-je vous intéresser aux droits des hommes ?' »

TikTok, malgré tous ses problèmes, a de fortes normes de créativité et est en constante évolution. YouTube Shorts, semblent dire ses utilisateurs, est en quelque sorte en panne et est resté bloqué sur le passé récent et dégoûtant. Et bien que des clips régurgités de Tate puissent certainement encore être trouvés sur d’autres plateformes, aucun d’entre eux n’a donné l’impression de traquer indûment ses utilisateurs avec son contenu. (Il est impossible de savoir si c’est parce que leurs algorithmes sont réellement supérieurs ou simplement parce que ces sites ont moins de contenu Tate par rapport à tout le reste.) gamme de signaux à la fois personnalisés pour le spectateur et à l’échelle de l’activité sur la plate-forme. Nous offrons également aux utilisateurs le contrôle de leurs recommandations, y compris la possibilité d’empêcher qu’une vidéo ou une chaîne spécifique ne leur soit recommandée à l’avenir. Pour cette raison, les expériences de deux téléspectateurs ne sont pas identiques. Nous améliorons constamment notre système de recommandation pour aider les gens à trouver le contenu qu’ils veulent regarder et à trouver précieux. »

Bien que YouTube ait publié quelques détails sur le fonctionnement de son système de recommandation, les utilisateurs doivent encore faire des suppositions, basées sur leurs propres expériences anecdotiques, sur ce qui se passe derrière l’écran – une pratique que certains chercheurs appellent la création de « folklore algorithmique ». ” Et lorsqu’ils partagent ces suppositions en public, ils contribuent à l’impression partagée que l’algorithme YouTube Shorts est inexplicablement obstiné dans ses efforts pour montrer aux utilisateurs un contenu offensant. (« Les courts métrages YouTube sont méchants. Vous ne pouvez tout simplement pas rejeter la misogynie de l’algorithme. ») Brad Overbey, un YouTuber de 35 ans avec une chaîne de jeux vidéo populaire, m’a dit qu’il pensait voir Tate et d’autres contenus misogynes dans son flux YouTube Shorts en raison de son profil démographique : blanc, à revenu élevé, techno- avisé, du Texas. « Cela me met dans le pipeline de la misogynie », a-t-il déclaré. Il a passé environ une semaine à essayer de corriger les recommandations en n’aimant pas les choses et en bloquant les comptes, mais il n’a pas remarqué de changement. « Je ne plaisante même plus avec ça », m’a-t-il dit.

Overbey avait au moins une théorie sur la raison pour laquelle il obtenait du contenu pour les fans de Tate. Lux Houle, une utilisatrice YouTube de 22 ans qui regarde principalement des sketches comiques et des vidéos de cuisine, m’a dit qu’elle ne savait pas pourquoi elle le voyait. « J’ai commencé à ne pas aimer et à cacher les comptes et à dire » Ne me montrez pas ces trucs « , mais ça n’arrêtait pas d’aller et venir », a-t-elle déclaré. «Ce sont toujours ces très petits comptes avec 7 000 abonnés, mais il y aura 100 000 likes sur le Short. Je suis toujours vraiment confus par ça.

Je lui ai dit que je me demandais si une partie du problème pouvait être que les gens réagissent émotionnellement aux recommandations qu’un algorithme semi-anthropomorphisé fait spécifiquement pour eux : Qu’est-ce que ça dit de moi que « mon » algorithme pense que je veux voir ça ? J’ai demandé si elle s’était engagée dans les vidéos de Tate en les regardant par curiosité morbide ou en les partageant avec des amis, ce qui aurait pu donner au système des signaux qu’elle n’avait pas l’intention ou dont elle ne se souviendrait pas. « Je pense qu’au début, j’en ai regardé un ou deux, parce que je ne savais tout simplement pas ce que c’était », a-t-elle déclaré. « Maintenant, j’en suis arrivé au point où je peux détecter sa voix ou son visage. Je vais défiler immédiatement.

Après avoir parlé avec Houle, j’ai vérifié mes propres recommandations YouTube Shorts pour voir si elles seraient tout aussi étranges, mais elles étaient correctes – presque tous les clips d’interviews de célébrités, probablement parce que j’utilise principalement YouTube pour regarder des vidéos musicales et Résumé architectural visites de maisons d’acteurs. Ce n’est que lorsque je me suis déconnecté de mon compte et que j’ai utilisé Shorts en tant que premier utilisateur générique de YouTube que j’ai vu du contenu effrayant. Comme Overbey me l’avait dit, c’était environ une fois toutes les huit à 10 vidéos. J’obtenais un clip d’un tour de football cool, puis celui d’une vieille dame en train de cuisiner, puis quelqu’un peignant un portrait très détaillé de Scrooge McDuck. Des chatons, des skateurs, un poméranien dans une baignoire. Puis, après « Regarde ma souris grandir ! il y avait Tate, mangeant un gâteau en forme de Bugatti – 22 millions de vues.

Je crée mon propre folklore algorithmique ici, mais ma meilleure hypothèse est que, parce que Tate était si populaire, les comptes publiant du contenu Tate se sont retrouvés parmi les catégories par défaut dont l’algorithme tirera s’il ne sait pas grand-chose sur ce qu’un utilisateur veut voir. Cela correspond parfaitement au reste du contenu du plus petit dénominateur commun – c’est juste plus surprenant et mémorable.

Lorsque j’ai parlé avec Manoel Horta Ribeiro, un doctorat de quatrième année. étudiant à l’Ecole polytechnique fédérale de Lausanne qui étudie la misogynie et la radicalisation en ligne, il m’a dit qu’il serait très difficile, sans accès aux données de YouTube, de dire si quelque chose ne va pas par rapport aux recommandations de Shorts. Peu importe le nombre de personnes qui se plaignent que Tate leur est montrée sans raison, il n’y a aucun moyen pour un spectateur de savoir avec certitude. « Vous suggérez qu’il existe, par exemple, une valeur de référence qui correspond à la quantité de contenu devrait être amplifié, et que ce contenu a été amplifié au-dessus de ce niveau de base », a-t-il déclaré. « Mais je pense que le gros problème est qu’il est très difficile de définir le niveau de référence. » C’est l’une des raisons pour lesquelles les chercheurs sont toujours en débat le rôle précis que les algorithmes de recommandation de YouTube peuvent jouer dans la promotion de l’extrémisme, de la désinformation et d’autres contenus problématiques.

L’explication derrière le fantôme persistant d’Andrew Tate est probablement plus simple qu’il n’y paraît aux gens qui en ont assez de le voir : c’est juste la longue demi-vie des déchets Internet. Une interdiction ne résout pas immédiatement un problème de modération de contenu ; cela le rend juste plus alambiqué. L’étoile de Tate s’est levée sur TikTok, qui a eu ses propres problèmes pour se débarrasser de son contenu même après l’avoir interdit, mais YouTube Shorts a maintenant la réputation d’être sa maison après l’arrestation. Le site a toujours été critiqué pour une misogynie si omniprésente qu’il est difficile voire impossible de le vérifier, même avec des règles plus strictes et plus précises. Maintenant, il est également critiqué pour avoir essayé et échoué à capturer la magie de la recommandation algorithmique de style TikTok – en imitant quelque chose de contemporain et populaire et en l’appliquant à un site avec des décennies d’histoire épineuse, il a par inadvertance mis en évidence à quel point la misogynie centrale a toujours été à sa propre culture.

Dans une certaine mesure, a soutenu Ribeiro, la recommandation de contenu désagréable est « au cœur du concept de médias sociaux » : toute personne ayant un intérêt, quelle que soit sa niche, peut trouver des créateurs et du contenu qui se rapportent à cet intérêt ; tout sera refait surface. Le problème avec cela, c’est à quel point il devient difficile de comprendre, en travaillant à rebours, ce qui intéresse les gens. Vous ne voulez pas voir Andrew Tate, et vous espérez que personne d’autre ne le fera non plus. Mais savez-vous vraiment si ses idées sont impopulaires ?



[ad_2]

Source link -30