Le Meta Oversight Board a des suggestions vraiment intelligentes


Un peu plus de 14 mois après La le journal Wall Street publié pour la première fois les « Facebook Files » – la série de reportages qui exposait le fonctionnement interne des pratiques de modération de contenu du site – le Meta Oversight Board a finalement rendu son avis sur le programme controversé et opaque de contre-vérification qui accordait un traitement préférentiel à certains utilisateurs de le site, même lorsqu’ils ont ouvertement bafoué les normes communautaires du site.

Pendant des mois, les experts en discours en ligne ont craint que la décision du conseil ne tombe à l’eau en recommandant la solution trop simplifiée de mettre fin entièrement au programme ou en suggérant des méthodes de réforme non spécifiques. Mais l’avis, qui énonce, selon le conseilplus de deux douzaines d’étapes concrètes pour lesquelles les types d’entités peuvent prétendre à de telles protections – et qui les sélectionnera – ont dépassé les attentes, offrant des conseils sérieux pour l’une des questions les plus difficiles du discours en ligne.

Le problème que Facebook tente de résoudre est au cœur d’Internet depuis ses débuts. Très tôt, n’importe qui disposant d’un clavier et d’un modem pouvait d’un coup diffuser ses idées à des dizaines ou des milliers de personnes sans avoir à faire valider un pitch par un New York Times rédacteur d’opinion ou la location d’une mairie.

Mais l’une des vérités inconfortables sur les médias sociaux et les plateformes de contenu généré par les utilisateurs est que, bien qu’ils aient démocratisé l’accès des individus à l’édition, ils ont également recréé les structures de pouvoir existantes, en les important du monde hors ligne vers celui en ligne. Cela est particulièrement vrai sur les principales plateformes de médias sociaux, y compris Facebook, Twitter, YouTube, Instagram et TikTok, où quelqu’un qui a une renommée existante peut facilement atteindre un public massif et atteindre beaucoup plus de personnes avec son discours que le blogueur ou YouTuber moyen. pourrait. Quand il ne s’agit que de célébrités colportant leurs marques ou publiant des vidéos non censurées de leurs routines de maquillage, il y a peu de mal. Mais comme le monde l’a récemment vu avec des célébrités telles qu’Alex Jones ou Ye, de mauvais acteurs avec un large public peuvent utiliser ces plateformes pour diffuser facilement des messages cruels et haineux à des millions de personnes, causant un préjudice réel et considérable avec leur discours en ligne.

Facebook s’est attaqué à cette réalité dès le début – dès 2013 – et a développé au fil du temps un système de modération du contenu et de gouvernance de la parole qui a donné des systèmes spéciaux d’examen et de traitement à ses utilisateurs et personnalités publiques les plus en vue. Il s’agissait du programme de vérification croisée : le processus de révision hors livre de Facebook qui accordait la priorité à certains utilisateurs pour un deuxième examen des décisions issues du processus général de modération du contenu, qui effectuait quelque chose comme 100 millions d’évaluations de modération du contenu par jour.

Le système de contre-vérification était bien connu dans l’industrie mais invisible pour le grand public jusqu’aux « fichiers Facebook ». Ce rapport détaillait pour la première fois comment le système fonctionnait et à quel point le paiement pour jouer – ou peut-être plus précisément «payer pour rester» – était vraiment. Alors qu’une photo seins nus publiée pour la sensibilisation au cancer du sein par une utilisatrice au Brésil a bloqué cette utilisatrice d’Instagram presque immédiatement, son appel languit pendant des semaines, de la pornographie non consensuelle publiée par une athlète célèbre avec environ 100 millions d’abonnés Instagram, d’une femme qui avait accusé de viol, est resté éveillé plus d’une journée, suffisamment de temps pour que quelque 56 millions de personnes le voient. (L’athlète en question, la star du football brésilien Neymar, a nié l’allégation de viol.)

Neymar existait sur une « liste blanche » au sein du système de recoupement utilisé par Facebook, ce qui permettait à ses messages de rester en ligne. Aggravant les inquiétudes concernant le traitement spécial, Meta a annoncé en 2021 – après la publication des « fichiers Facebook » et Facebook avait admis que la critique du programme de vérification croisée était juste – qu’il mettait en place un accord économique avec Neymar « pour diffuser des jeux exclusivement sur Facebook Gaming et partagez du contenu vidéo avec ses plus de 166 millions de fans Instagram.

Suite à l’exposé de Neymar et aux rapports généraux sur le programme de contre-vérification, le Meta Oversight Board a ouvert une enquête. Le conseil, souvent appelé la Cour suprême de Facebook, a été créé en 2020 pour commencer à examiner exactement comment – ​​et dans quelle mesure – la méga-plateforme de discours adhère aux principes fondamentaux des droits de l’homme autour de la liberté d’expression, tant sur le fond que sur la procédure. Au cours des deux années qui se sont écoulées depuis son lancement, le conseil d’administration a pris en charge un ensemble restreint mais essentiel de cas, notamment la décision de Facebook d’interdire le président Donald Trump de la plate-forme en raison de ses publications lors de l’insurrection du 6 janvier, une décision qu’il a confirmée mais critiquée. .

Au cours des 15 mois qui se sont écoulés depuis que le conseil a commencé son examen, le groupe a tenu lentement et méticuleusement des réunions d’enquête avec Meta, interrogé d’anciens employés qui ont travaillé sur le programme et tenu des réunions avec des groupes extérieurs pour poser des questions sur leurs plus grandes préoccupations concernant la contre-vérification. . (J’ai assisté à certaines de ces réunions en tant que chercheur qui étudie la gouvernance de la parole en ligne, et non en tant que participant.)

Au cours des délibérations du conseil, de nombreuses personnes connaissant le programme ont exprimé leur scepticisme quant à la possibilité d’élaborer de véritables recommandations pour remédier à la situation. Essentiellement, bien que le programme de contre-vérification ait de profondes failles, il était considéré comme un élément nécessaire à une modération efficace du contenu. « Si l’un des objectifs du conseil d’administration est de protéger la liberté d’expression, il y a de fortes chances que la suppression du programme entraîne davantage de discours par erreur, ce qui pourrait avoir un impact considérable sur les discussions et les débats autour de questions importantes », a déclaré Katie Harbath, ancienne directrice. de la politique publique des élections mondiales sur Facebook, m’a dit.

Mais le conseil n’a pas recommandé d’abandonner le modèle de contre-vérification. Au contraire, la décision, annoncée plus tôt cette semaine, donne peut-être l’un des examens les plus complets et les plus exhaustifs (il s’étend sur 57 pages) sur le fonctionnement de la boîte noire des appels à la modération de contenu pour les utilisateurs d’élite du site, puis explique comment l’améliorer. « J’ai quelques arguties, mais dans l’ensemble, c’est incroyablement complet », m’a dit Harbath.

Au cœur des recommandations du conseil d’administration figurent deux principes que de nombreux anciens et actuels employés de Facebook ont ​​défendus pendant des années : la transparence et la séparation des pouvoirs. Mais contrairement à certaines décisions passées qui ont fait allusion à des idées générales et quelque peu subjectives de proportionnalité ou d’équité, les recommandations du conseil sont très spécifiques, allant jusqu’à éclairer quels types de personnalités publiques Meta devrait, peut et ne devrait pas inclure dans le cross- vérifier le programme.

En haut de la liste des utilisateurs qui devraient être protégés figurent les journalistes, les fonctionnaires et les candidats aux élections. Mais le conseil d’administration est clair sur le fait que l’ère du traitement préférentiel pour les célébrités et les dirigeants politiques qui sont précieux pour Meta pour des raisons financières doit prendre fin. Au lieu de cela, le conseil recommande que tous les fonctionnaires et candidats placés dans ce groupe d’entités protégées soient sélectionnés par une équipe qui « ne relève pas des équipes de politique publique ou de relations gouvernementales » de Facebook. Cette séparation de la surveillance du discours de Facebook de ses intérêts politiques est un type de séparation de l’Église et de l’État qui menace de mettre fin à ce que beaucoup dans l’entreprise appellent «l’effet Joel Kaplan», d’après le conseiller Facebook notoirement puissant sur le plan politique qui supervise les efforts de lobbying de l’entreprise. à Washington, DC « La création de listes, et en particulier cet engagement, devrait être gérée par des équipes spécialisées, indépendantes des équipes dont les mandats peuvent poser des conflits d’intérêts, telles que les équipes de politique publique de Meta », lit-on dans la décision du conseil. « Pour s’assurer que les critères sont respectés, le personnel spécialisé, avec l’avantage de la contribution locale, devrait assurer une application objective des critères d’inclusion. »

Une autre façon de voir les recommandations du conseil est comme un appel à établir des normes comme celles qui existent depuis longtemps dans le journalisme, créant un mur figuratif (et parfois littéral) entre les côtés affaires et contenu d’une salle de rédaction. Bien que la décision laisse à la plateforme la discrétion de maintenir un deuxième groupe d' »utilisateurs ayant une importance commerciale et de partenaires commerciaux », il est catégorique qu’un tel système ne devrait jamais signifier que l’application des règles de contenu sur le site est suspendue ou retardée pour ce type de utilisateur.

Le conseil fait de nombreuses autres recommandations – suivre les mesures de base et accroître la transparence sur qui figure sur la liste de vérification croisée et quand elle est utilisée – mais encore plus que la décision très médiatisée de Trump, ce dernier avis du conseil de surveillance montre son potentiel pour apporter une véritable réforme et responsabilisation à la plate-forme. À une époque où les plates-formes vocales se comportent de manière illégale, cela ne pourrait pas être plus bienvenu.





Source link -30