[ad_1]
Dans le film japonais classique Rashomon, quatre personnes racontent le même incident de manières différentes et parfois contradictoires. Le débat sur les fichiers Twitter – documents et conversations Slack au sein de la plate-forme de médias sociaux désormais détenue par Elon Musk – me rappelle ce film. Ce mois-ci, les journalistes Matt Taibbi et Bari Weiss et l’auteur Michael Shellenberger ont posté fils de tweet décrivant les débats internes sur l’interdiction du partage d’un 2020 Poste de New York histoire sur l’ordinateur portable de Hunter Biden, limitant la circulation de certains messages et comptes, et supprimant le compte du président de l’époque Donald Trump après l’émeute du 6 janvier au Capitole. Selon votre point de vue, vous pourriez conclure que la suspension de Trump était une mesure de sécurité essentielle, un gros scandale ou totalement sans conséquence.
« La lumière du soleil est le meilleur désinfectant », a déclaré Musk sur Twitter plus tôt cette année, une semaine après que le conseil d’administration de l’entreprise a accepté son offre de rachat. Et il a raison de dire que la transparence sur la modération du contenu – c’est-à-dire le filtrage des messages générés par les utilisateurs pour s’assurer qu’ils répondent aux normes de la communauté – est la seule chose qui peut légitimer et restaurer la confiance dans une plate-forme qui a une énorme influence sur le discours politique. . Malheureusement, les fichiers Twitter offrent peu d’informations sur l’importance des décisions de modération. Les anecdotes individuelles, en particulier celles impliquant des décisions aberrantes à enjeux élevés, telles que la façon de gérer un président dont les partisans tentent d’empêcher l’élection de son successeur d’être certifiée, sont intéressantes mais révèlent peu de choses sur le fonctionnement quotidien des plateformes. Et ce sont des informations que le public doit connaître.
Le plus récent de Twitter rapport de transparence, publié en juillet, montre qu’il est intervenu sur 4,3 millions de comptes au second semestre 2021 et a supprimé 5,1 millions de contenus. Vous pouvez sélectionner quelques-unes de ces décisions pour les adapter à presque tous les récits idéologiques. Les commentateurs de droite ne sont pas les seuls à se plaindre des actions des plateformes. Certains utilisateurs de médias sociaux noirs et LGBTQ ont également objecté qu’ils étaient injustement modérés, car des outils automatisés suppriment les messages contenant des mots et des phrases jugés offensants. La méfiance à l’égard du pouvoir de Big Tech est universelle.
La modération de contenu est parfois considérée comme binaire : les publications et même des comptes entiers sont soit laissés en place, soit supprimés. Mais les plateformes de médias sociaux ont développé une gamme d’outils ; de nombreuses plateformes utilisent un cadre semblable à ce que Facebook appelle « Supprimer, Réduire, Informer ». Retirer est ce que cela ressemble. Informer implique souvent l’application d’une étiquette ou d’un interstitiel pour montrer le contexte ou une vérification des faits à côté du contenu. À l’heure actuelle, l’outil le plus controversé est réduire, qui consiste à déclasser le contenu afin que moins de personnes le voient. Sous le réduire option, les comptes ou les publications qui sont sur le point de violer les politiques du site restent actifs, mais les algorithmes de curation les poussent dans les flux de moins de personnes ; pour voir le soi-disant contenu limite, vous devez visiter de manière proactive la page de l’utilisateur d’origine. Les critiques du déclassement le rejettent comme une forme sournoise de censure ; les utilisateurs « bannis de l’ombre », affirment-ils, se voient refuser un public sans qu’ils le sachent.
La controverse actuelle est ironique car le déclassement est apparu comme une alternative à des retraits plus stricts. En tant qu’option d’exécution pour les postes et comptes limites, réduire soutient la prémisse de «la liberté d’expression, pas la liberté d’accès» – une phrase que ma collègue Aza Raskin et moi avons introduite il y a des années pour articuler un équilibre potentiel entre le maintien de la libre expression de la publication et l’apaisement des préoccupations de la plate-forme concernant l’amplification virale des choses qui pourrait être nocif. Musk utilise maintenant cette même phrase pour décrire sa propre vision de la modération. Sur les services de médias sociaux centralisés d’aujourd’hui, le contenu est toujours classé d’une manière ou d’une autre et les plateformes façonnent ce que voient leurs utilisateurs. Mais qu’est-ce qui, exactement, est refusé à atteindre ? Comment les plateformes définissent-elles le mal ? Twitter a-t-il élargi le pool de publications et de comptes qu’il considère comme borderline ? L’entreprise a-t-elle fait preuve de parti pris politique dans l’application de la politique et, si tel est le cas, comment cela sera-t-il minimisé à l’avenir ? Ce sont des questions justes.
Les journalistes et les chercheurs universitaires ne devraient pas avoir à baser leurs évaluations uniquement sur des anecdotes. Twitter pourrait facilement fournir des informations systématiques sur ses pratiques. Dans son fil Twitter Files sur l’interdiction des ombres, Weiss captures d’écran partagées, fourni par Ella Irwin, la nouvelle responsable de la confiance et de la sécurité de l’entreprise, d’une interface de modération qui permet aux employés de marquer des comptes spécifiques de manière – « liste noire des tendances », « liste noire de recherche » – qui limite probablement la circulation de leurs tweets. (Les effets précis de ces balises et d’autres ne sont pas clairs.)
Les reportages de Weiss se sont concentrés sur la façon dont la société a géré des comptes de haut niveau, tels que Libs of TikTok, qui sont populaires parmi les conservateurs américains. Cependant, cela a soulevé beaucoup de questions intéressantes sur la plate-forme plus généralement. Pour comprendre l’application systémique des politiques de la plate-forme, les chercheurs, y compris mon équipe de l’Observatoire Internet de Stanford, aimeraient voir des statistiques sur, par exemple, le nombre de comptes qui ont reçu les balises « trends blacklist » et « search blacklist ». Même si les noms d’utilisateur des comptes individuels sont obscurcis pour des raisons de confidentialité, un rapport détaillant le nombre d’abonnés et le pays d’origine présumé des comptes marqués pourrait en dire plus sur la façon dont la plateforme exerce son pouvoir de modération de contenu que des anecdotes individuelles. (Twitter est une plate-forme mondiale ; bien que sa gestion des Libs de TikTok soit certainement intéressante, d’autres comptes, tels que ceux de nombreux responsables gouvernementaux et dirigeants de mouvements politiques, ont une plus grande influence mondiale).
Parce que des exemples anecdotiques aident à rendre la dynamique abstraite plus claire pour le public, les auteurs des fichiers Twitter devraient rechercher et partager plus de détails sur précisément Pourquoi les comptes médiatisés et quelque peu controversés qu’ils ont mis en lumière ont fait l’objet d’actions spécifiques. Quel tweet ou tweets a incité les employés de Twitter à mettre l’animateur de talk-show de droite Dan Bongino sur la liste noire des recherches ? Quelle politique spécifique a justifié cette décision ? Les entreprises de médias sociaux expliquent rarement leurs délibérations. À ma connaissance, Twitter n’a jamais accordé aux chercheurs universitaires le niveau d’accès qu’il accordait à ces journalistes, et les informations qu’ils obtiennent pourraient aider d’autres chercheurs à savoir quelles informations rechercher et demander à l’avenir.
Certains commentateurs, en particulier à gauche, ont rejeté les rapports de Twitter Files parce qu’ils sont politiquement en désaccord avec les auteurs. Malheureusement, dans un environnement informationnel fragmenté en réalités sur mesure, le narrateur compte. Pour discréditer tel ou tel rapport, les partisans peuvent se dire que l’écrivain ou l’analyste est trop à droite ou trop à gauche — on m’a reproché les deux — pour être éventuellement intellectuellement honnête ; ils sont apparus une fois sur un panel, un podcast ou un programme de conférence avec quelqu’un vaguement associé à l’ennemi. Il y a quelque chose désagréables à leur sujet, et par conséquent leurs conclusions peuvent être ignorées.
C’est une raison de plus pour les plateformes vocales, compte tenu de leur énorme influence, de soumettre leurs données de modération de contenu à l’examen minutieux de plusieurs équipes. Les plateformes ont généralement gardé le secret sur la façon dont elles modèrent le contenu, en partie pour empêcher les gens de jouer avec les règles. Si Twitter exposait les phrases spécifiques qui pourraient déclencher un déclassement, par exemple, les comptes pourraient simplement éviter ces termes ; Lorsque les plates-formes ont tenté d’étouffer les allégations de santé trompeuses concernant la pandémie de coronavirus, certains utilisateurs ont tenté d’échapper à la détection grâce à des orthographes créatives telles que « c0vid » et « ♈ax ». Mais maintenant, le secret lui-même est utile aux acteurs de mauvaise foi. En effet, lorsque les fichiers Twitter sur l’ordinateur portable de Hunter Biden ont fait ne pas révéler une vaste collusion dans laquelle Twitter recevait des ordres du FBI (ou toute autre branche du gouvernement), les influenceurs de l’univers cinématographique Pizzagate ont saisi l’idée que Jim Baker, un ancien avocat du FBI qui a été avocat général adjoint chez Twitter de juin 2020 à la semaine dernière, avait personnellement et délibérément compromis le transfert du dossier aux médias, supprimant le » preuve » qui aurait prouvé leur théorie.
La tentative de lancer n’importe quel forme de modération – même l’ajout d’une simple étiquette pour ajouter du contexte à une affirmation controversée – car la censure flagrante et tyrannique est une stratégie délibérée depuis un certain temps maintenant, une stratégie que Trump lui-même a trouvée très efficace pour perpétuer et monétiser les griefs parmi sa base. Certains utilisateurs peu suivis sont devenus convaincus qu’ils avaient été bannis de l’ombre en raison de leurs convictions idéologiques, même lorsque, selon toute vraisemblance, les plateformes n’avaient pris aucune mesure à leur encontre. L’explication la plus plausible est que leur contenu n’était tout simplement pas populaire ou saillant, de sorte que la plate-forme ne l’a pas distribué dans les flux de leurs abonnés. Cependant, la transparence pourrait grandement contribuer à répondre à cette suspicion ; La semaine dernière, Instagram a annoncé un outil grâce auquel les créateurs peuvent vérifier si leur contenu a été jugé inéligible à la recommandation et faire appel s’ils estiment que la plateforme a fait un mauvais appel.
Le sentiment que les entreprises technologiques sont à la fois intrusives et opaques a incité les politiciens de tous les horizons politiques à se montrer durs avec l’industrie – des promesses qui, d’une manière ou d’une autre, ne se sont toujours pas traduites par une action ou une réglementation tangible aux États-Unis. Un problème est que la gauche et la droite ne sont pas d’accord sur les types de décisions de modération de contenu qui posent problème. Mais après des années à n’être contraintes que par leurs propres capacités, les entreprises technologiques américaines sont désormais sur la bonne voie pour être réglementées par l’Union européenne, où de nouvelles règles imposeront des restrictions de contenu, des normes de sécurité et des rapports de transparence.
Les États-Unis peuvent mieux faire. Les chercheurs cherchent depuis un certain temps à accéder aux données de la plate-forme sur les recommandations algorithmiques, la conservation et la modération. Bien plus de personnes qu’une poignée d’écrivains bien connus devraient avoir accès pour enquêter sur le pouvoir que ces entreprises exercent. Si le Congrès veut comprendre comment les plateformes modèrent – une question qui intéresse tous les partis politiques – les membres devraient adopter la loi sur la responsabilité et la transparence des plateformes, ou une proposition législative similaire, dans le but de fournir aux chercheurs et au public l’accès à certains types des données de la plate-forme tout en protégeant la vie privée des utilisateurs réguliers. En effet, en adoptant la loi, qui permettrait à plusieurs équipes de recherche de tous les horizons politiques de suivre de plus près les opérations des plateformes, les dirigeants du Congrès peuvent aider à sortir le public du cycle actuel de méfiance. Et si le Congrès reste dans l’impasse, Musk et Twitter peuvent toujours fournir un exemple. Comme mon collègue Alex Stamos suggéré, la direction actuelle de Twitter pourrait s’engager à publier toutes les communications des acteurs politiques mondiaux liées à la modération de contenu ; les demandes et les demandes des gouvernements pourraient toutes être intégrées dans une base de données publique similaire à Lumen, qui suit les demandes de suppression de matériel en vertu du Digital Millennium Copyright Act.
Les fichiers Twitter sont jusqu’à présent une occasion manquée. Pour régler ses comptes avec les anciens dirigeants de Twitter, le nouveau propriétaire de la plateforme pointe des exemples de niche d’excès et de faux pas discutables, créant peut-être beaucoup plus de méfiance dans le processus. Et pourtant, il existe un réel besoin pour le public de comprendre le fonctionnement de la modération des plateformes et de voir comment l’application de la loi correspond à la politique. Nous pouvons évoluer vers une véritable transparence et, espérons-le, vers un avenir dans lequel les gens pourront voir les mêmes faits de manière similaire.
[ad_2]
Source link -30