Ce que vous ne pouvez pas dire sur YouTube


Récemment, sur une chaîne YouTube, j’ai dit quelque chose terrible, mais je ne sais pas ce que c’était. Le principal sujet de discussion – mon reportage sur le pouvoir des gourous en ligne – n’était pas intrinsèquement offensant. Cela aurait pu être quelque chose à propos de la précédente dépendance à l’héroïne du comédien devenu provocateur Russell Brand, ou des scandales de maltraitance d’enfants dans l’Église catholique. Je sais que ce n’était pas le mot nazi, car nous avons soigneusement évité cela. Quoi qu’il en soit, c’était suffisant pour que l’interview soit démonétisée, ce qui signifie qu’aucune publicité ne pouvait être placée contre elle, et mon hôte n’en a reçu aucun revenu.

« Cela commence à vous rendre fou », déclare Andrew Gold, dont la chaîne, On the Edge, était l’endroit où j’ai commis mon infraction inconnaissable. Comme de nombreux YouTubers à temps plein, il s’appuie sur le programme AdSense du site appartenant à Google, qui lui offre une réduction des revenus des publicités insérées avant et pendant ses entretiens. Lors du lancement d’un nouvel épisode, Gold m’a expliqué, « vous obtenez un signe dollar vert quand il est monétisable, et il devient jaune si ce n’est pas le cas. » Les créateurs peuvent contester ces décisions, mais cela prend du temps et la plupart des vidéos reçoivent la majorité de leurs vues dans les premières heures après le lancement. Il est donc préférable d’éviter le signe dollar jaune en premier lieu. Si vous voulez gagner de l’argent avec YouTube, vous devez faire attention à ce que vous dites.

Mais comment? La liste des directives de contenu de YouTube parvient à être à la fois exhaustive et nébuleuse. « Le contenu qui couvre des sujets tels que l’abus d’enfants ou sexuel en tant que sujet principal sans descriptions détaillées ou représentations graphiques » est susceptible d’être démonétisé, tout comme les « récits personnels ou articles d’opinion liés à l’avortement en tant que sujet principal sans représentation graphique ». Les récits à la première personne de violence domestique, de troubles de l’alimentation et de maltraitance d’enfants sont définitivement non-non s’ils incluent des « détails choquants ». YouTube applique une politique des trois coups en cas d’infraction : le premier coup est un avertissement ; le second empêche les créateurs de créer de nouveaux messages pendant une semaine ; et le troisième (si reçu dans les 90 jours suivant le second) fait interdire la chaîne.

Pour les créateurs les plus populaires, le site peut attirer des millions d’audiences et des récompenses financières correspondantes. Mais pour presque tout le monde, la production de contenu est une corvée, car les créateurs sont encouragés à publier régulièrement et à reconditionner le contenu dans son rival TikTok, Shorts. Bien que de nombreux types de contenu puissent ne jamais enfreindre les directives – si vous êtes MrBeast donnant de l’argent à des inconnus, pour le plus grand plaisir de vos 137 millions d’abonnés, les règles contre les discours de haine et la désinformation ne seront pas un problème – les discussions politiques sont soumis aux caprices des algorithmes.

En l’absence d’assez de modérateurs humains pour gérer les quelque 500 heures de vidéos téléchargées chaque minute, YouTube utilise l’intelligence artificielle pour faire respecter ses directives. Les robots analysent les transcriptions générées automatiquement et signalent des mots et des phrases individuels comme problématiques, d’où le problème de dire héroïne. Même si les références «éducatives» à la consommation de drogue sont autorisées, le mot peut accrocher le fil de déclenchement de l’IA, obligeant un créateur à demander un examen qui prend du temps.

Andrew Gold a demandé un tel examen pour son entretien avec moi, et le signe du dollar est dûment devenu vert, ce qui signifie que le site a finalement diffusé des publicités à côté du contenu. « C’était un risque », m’a-t-il dit, « parce que je ne sais pas comment cela affecte ma note si je me trompe… Et ils ne me disent pas si c’est nazis, héroïne, Ou n’importe quoi. Vous vous demandez simplement ce que c’était.

Les frustrations comme celle de Gold reçoivent rarement beaucoup d’attention, car la conversation sur la modération de contenu en ligne est dominée par de grands noms qui se plaignent d’interdictions pures et simples. De manière perverse, cependant, les colporteurs de désinformation les plus flagrants sont mieux placés que les créateurs ordinaires pour respecter les règles de YouTube. Un article de recherche de l’année dernière de Yiqing Hua de l’Université Cornell et d’autres a révélé que les personnes créant du contenu marginal à haut risque d’être démonétisé, comme le contenu pour les chaînes alt-right ou « manosphère », étaient plus susceptibles que les autres créateurs d’utiliser d’autres sources de revenus. pratiques, telles que les liens d’affiliation ou inciter les téléspectateurs à s’abonner sur d’autres plateformes. Ils n’ont même pas tenté de monétiser leur contenu sur YouTube, en contournant le système d’avertissement, et ont plutôt utilisé la plateforme comme vitrine. Ils devinrent alors plus productifs sur YouTube, car la démonétisation n’affectait plus leur capacité à gagner leur vie.

Les autres plates-formes utilisées par ces influenceurs incluent Rumble, un site qui se présente comme « immunisé contre l’annulation de la culture » et a reçu des investissements du capital-risqueur Peter Thiel et du sénateur JD Vance de l’Ohio. En janvier, le gouverneur républicain de Floride, Ron DeSantis, a annoncé que Rumble était désormais son « service de partage de vidéos de choix » pour les conférences de presse parce qu’il avait été « silencieux » par Google à cause de ses affirmations sur YouTube concernant la pandémie de coronavirus. Récemment, dans une véritable démonstration de la théorie du fer à cheval, Russell Brand (un haineux des élites de gauche, croustillant et sceptique contre le COVID) a posé avec Donald Trump Jr. (un nepo-baby de droite, un haineux des élites sceptique contre le COVID) lors d’une soirée organisée par Rumble, où ils sont deux des créateurs les plus populaires. Brand maintient une présence sur YouTube, où il compte 6 millions d’abonnés, mais l’utilise exactement comme le type de vitrine identifiée par les chercheurs de Cornell. Il a récemment déclaré à Joe Rogan qu’il comptait désormais sur Rumble comme plate-forme principale parce qu’il en avait assez de « l’algèbre sauvage » de YouTube.

Pour les méga-célébrités, y compris les podcasteurs très bien payés et les candidats potentiels à la présidentielle, s’opposer à la modération des Big Tech est un excellent moyen de se faire passer pour un outsider ou un martyr. Mais parlez avec des créateurs de tous les jours, et ils sont plus que disposés à respecter les règles, qui, selon eux, sont conçues pour rendre YouTube plus sûr et plus précis. Ils veulent simplement savoir quelles sont ces règles et les voir appliquées de manière cohérente. Dans l’état actuel des choses, Gold a comparé son expérience d’avoir été informé de manière impersonnelle d’infractions non spécifiées à son travail pour HAL9000, le suzerain de l’informatique de 2001 : L’odyssée de l’espace.

L’un des domaines de contenu les plus problématiques est le COVID, à propos duquel il existe à la fois un débat légitime sur les traitements, les vaccins et les politiques de confinement. et un grand fleuve de désinformation et de théories du complot. « La première vidéo que j’ai jamais publiée sur YouTube était une vidéo sur l’ivermectine, qui expliquait pourquoi il n’y avait aucune preuve à l’appui de son utilisation dans COVID », m’a dit la créatrice Susan Oliver, qui a un doctorat en nanomédecine. « YouTube a supprimé la vidéo six heures plus tard. J’ai fait appel du retrait, mais ils ont rejeté mon appel. Je n’ai presque pas pris la peine de faire une autre vidéo après celle-ci.

Depuis lors, la chaîne d’Oliver, Back to the Science, qui compte environ 7 500 abonnés, s’est heurtée à un problème constant, qui autres démystificateurs ont également été confrontés. Si elle cite de fausses informations dans une vidéo afin de la contester, elle risque d’être signalée pour désinformation. Cela s’est produit avec une vidéo faisant référence aux fausses affirmations du créateur populaire John Campbell selon lesquelles les vaccins COVID seraient liés à des lésions cérébrales. Son la vidéo a été retirée (et restaurée uniquement en appel) et son la vidéo est restée allumée. « Les seules choses dans ma vidéo susceptibles d’avoir déclenché l’algorithme étaient des extraits de la vidéo originale de Campbell », m’a dit Oliver. Un autre problème auquel YouTube est confronté : le scepticisme lié au COVID est incroyablement populaire. Le contenu d’Oliver critiquant la rhétorique de Campbell sur les lésions cérébrales a un peu plus de 10 000 vues. Sa vidéo originale en compte plus de 800 000.

Oliver s’est demandé si les fans de Campbell la dénonçaient en masse – une pratique connue sous le nom de « brigadage ».

« Il semble que YouTube permette aux grandes chaînes rentables d’utiliser n’importe quelle échappatoire pour diffuser de la désinformation tout en s’acharnant sur les petites chaînes sans même vérifier correctement leur contenu », a-t-elle déclaré. Mais un porte-parole de Google, Michael Aciman, m’a dit que ce n’était pas le cas. « Le nombre de drapeaux qu’un élément de contenu peut recevoir n’est pas un facteur que nous utilisons lors de l’évaluation du contenu par rapport aux directives de notre communauté », a-t-il déclaré. « De plus, ces drapeaux ne sont pas pris en compte dans les décisions de monétisation. »

YouTube n’est pas le seul réseau social où les créateurs ont du mal à naviguer dans des systèmes de modération opaques avec des voies d’appel limitées. Les utilisateurs de TikTok – où certains contributeurs sont payés à partir d’un « fonds de créateurs » en fonction de leurs opinions – ont développé tout un vocabulaire pour naviguer dans la censure automatisée. Personne n’est tué sur TikTok; ils deviennent « non vivants ». Il n’y a pas de lesbiennes, mais plutôt « le dollar beans » (le$beans). Les gens qui vendent du sexe sont des « comptables épicés ». L’objectif est de préserver ces réseaux sociaux comme étant à la fois conviviaux pour les familles et les annonceurs ; les parents et les entreprises veulent que ces espaces soient « sûrs ». Le résultat est une étrange floraison d’euphémismes qui ne tromperait pas un enfant de 7 ans.

Tout le monde ne trouve pas les restrictions de YouTube indûment onéreuses. Le podcasteur Chris Williamson, dont la chaîne YouTube compte 750 000 abonnés et publie environ six vidéos par semaine, m’a dit qu’il met maintenant en sourdine les jurons dans les cinq premières minutes des vidéos après avoir reçu un conseil d’un collègue créateur. Même si sa chaîne « brosse[es] au bord de beaucoup de sujets épicés », a-t-il dit, le seul véritable problème a été lorsqu’il a « largué la bombe C » 85 minutes dans une vidéo de deux heures et demie, qui a ensuite été démonétisée. « La politique peut devenir plus stricte dans d’autres domaines qui ne me concernent pas », a-t-il déclaré, « mais tant que j’évite les bombes C, ma chaîne semble aller bien. » (Pendant que je rapportais cette histoire, YouTube a publié une mise à jour des directives clarifiant les règles sur les jurons et a promis de revoir les vidéos précédemment démonétisées.)

En tant que créateur de haut niveau, Williamson a un grand avantage : YouTube l’a affecté à un responsable partenaire qui peut l’aider à comprendre les directives du site. Les petits canaux doivent s’appuyer sur des systèmes impersonnels et largement automatisés. Les utiliser peut donner l’impression de crier dans le vide. Williamson complète également ses revenus AdSense provenant des publicités de YouTube avec des liens de parrainage et d’affiliation, ce qui rend la démonétisation moins préoccupante. « Tout créateur qui dépend exclusivement d’AdSense pour ses revenus joue à un jeu sous-optimal », a-t-il déclaré.

Aciman, le porte-parole de Google, m’a dit que toutes les chaînes de YouTube doivent se conformer à ses directives communautaires, qui interdisent la désinformation médicale COVID-19 et les discours de haine, et que les chaînes qui reçoivent des revenus publicitaires sont tenues à une norme plus élevée afin de se conformer. avec les « consignes de contenu adaptées aux annonceurs ». « Nous nous appuyons sur l’apprentissage automatique pour évaluer des millions de vidéos sur notre plate-forme pour le statut de monétisation », a ajouté Aciman. « Aucun système n’est parfait, nous encourageons donc les créateurs à faire appel à un examen humain lorsqu’ils estiment que nous nous sommes trompés. Comme nous l’avons montré, nous annulons ces décisions le cas échéant, et chaque appel aide nos systèmes à devenir plus intelligents au fil du temps. »

YouTube est pris dans une position difficile, arbitrant entre ceux qui prétendent qu’il modère trop fortement et d’autres qui se plaignent qu’il n’en fait pas assez. Et chaque démonétisation est un coup direct à son propre résultat net. Je sympathise avec la situation difficile du site, tout en notant que YouTube appartient à l’une des sociétés technologiques les plus riches au monde, et qu’une partie de cette richesse repose sur un modèle commercial de modération automatisée et légère. Au dernier trimestre de 2022, YouTube a réalisé près de 8 milliards de dollars de revenus publicitaires. Il y a une très bonne raison pour laquelle le journalisme n’est pas aussi rentable que cela : imaginez si YouTube éditait son contenu avec autant de diligence qu’un ancien journal ou une chaîne de télévision, même un peu bâclé. Son grand fleuve de vidéos ralentirait à un filet.





Source link -30