Les Rohingyas demandent réparation à Facebook pour leur rôle dans le massacre


Avec des coqs qui chantent en arrière-plan alors qu’il parle depuis le camp de réfugiés surpeuplé au Bangladesh qui est sa maison depuis 2017, Maung Sawyeddollah, 21 ans, décrit ce qui s’est passé lorsque des discours de haine violents et de désinformation visant la minorité Rohingya au Myanmar ont commencé à se répandre sur Facebook.

«Nous étions bien avec la plupart des gens là-bas. Mais certains types très étroits d’esprit et très nationalistes ont intensifié la haine contre les Rohingyas sur Facebook », a-t-il déclaré. « Et les gens qui étaient bons, en communication étroite avec les Rohingyas. ont changé d’avis contre les Rohingyas et cela s’est transformé en haine.

Pendant des années, Facebook, maintenant appelé Meta Platforms Inc., a poussé le récit selon lequel il s’agissait d’une plate-forme neutre au Myanmar qui était utilisée à mauvais escient par des personnes malveillantes, et que malgré ses efforts pour supprimer les contenus violents et haineux, elle a malheureusement échoué. Ce récit fait écho à sa réponse au rôle qu’il a joué dans d’autres conflits à travers le monde, qu’il s’agisse des élections de 2020 aux États-Unis ou des discours de haine en Inde.

Mais un nouveau rapport complet d’Amnesty International indique que le récit préféré de Facebook est faux. La plate-forme, selon Amnesty, n’était pas simplement un site passif avec une modération de contenu insuffisante. Au lieu de cela, les algorithmes de Meta « ont amplifié et promu de manière proactive le contenu » sur Facebook, ce qui a incité à la haine violente contre les Rohingya dès 2012.

Malgré des années d’avertissements, a constaté Amnesty, l’entreprise n’a pas seulement omis de supprimer discours de haine violent et désinformation contre les Rohingyas, il l’a activement propagé et amplifié jusqu’à ce qu’il culmine avec le massacre de 2017. Le moment a coïncidé avec la popularité croissante de Facebook au Myanmar, où pour de nombreuses personnes, il s’agissait de leur seule connexion au monde en ligne. Cela a effectivement fait de Facebook l’Internet pour un grand nombre de la population du Myanmar.

Plus de 700 000 Rohingyas ont fui vers le Bangladesh voisin cette année-là. Les forces de sécurité du Myanmar ont été accusées de viols massifs, de meurtres et d’incendies de milliers de maisons appartenant à des Rohingyas.

« Meta – par ses algorithmes dangereux et sa poursuite incessante du profit – a largement contribué aux graves violations des droits de l’homme perpétrées contre les Rohingyas », indique le rapport.

Un porte-parole de Meta a refusé de répondre aux questions sur le rapport d’Amnesty. Dans un communiqué, la société a déclaré qu’elle « est solidaire de la communauté internationale et soutient les efforts visant à tenir la Tatmadaw responsable de ses crimes contre le peuple Rohingya ».

« Notre travail de sécurité et d’intégrité au Myanmar reste guidé par les commentaires des organisations locales de la société civile et des institutions internationales, y compris la mission d’établissement des faits des Nations Unies sur le Myanmar ; l’évaluation de l’impact sur les droits de l’homme nous avons commandé en 2018 ; ainsi que notre gestion continue des risques en matière de droits de l’homme », a déclaré Rafael Frankel, directeur des politiques publiques pour les marchés émergents, Meta Asia-Pacific, dans un communiqué.

Comme Sawyeddollah, qui est cité dans le rapport d’Amnesty et s’est entretenu avec l’AP mardi, la plupart des personnes qui ont fui le Myanmar – environ 80% des Rohingyas vivant dans l’État de Rakhine, à l’ouest du Myanmar à l’époque – résident toujours dans des camps de réfugiés. Et ils demandent à Meta de payer des réparations pour son rôle dans la violente répression des musulmans rohingyas au Myanmar, que les États-Unis ont déclaré génocide. plus tôt cette année.

Le rapport d’Amnesty, publié mercredi, est basé sur des entretiens avec des réfugiés rohingyas, d’anciens membres du personnel de Meta, des universitaires, des militants et d’autres. Il s’est également appuyé sur des documents divulgués au Congrès l’année dernière par la lanceuse d’alerte Frances Haugen, un ancien data scientist de Facebook. Il note que les militants des droits numériques affirment que Meta a amélioré son engagement avec la société civile et certains aspects de ses pratiques de modération de contenu au Myanmar ces dernières années. En janvier 2021, après qu’un violent coup d’État a renversé le gouvernement, il a interdit l’armée du pays de sa plate-forme.

Mais les critiques, y compris certains des propres employés de Facebook, soutiennent depuis longtemps qu’une telle approche ne fonctionnera jamais vraiment. Cela signifie que Meta joue à la taupe en essayant de supprimer le contenu nuisible tandis que ses algorithmes conçus pour pousser le contenu « engageant » qui est plus susceptible d’énerver les gens fonctionnent essentiellement contre lui.

« Ces algorithmes sont vraiment dangereux pour nos droits humains. Et ce qui est arrivé au rôle des Rohingyas et de Facebook dans ce conflit spécifique risque de se reproduire, dans de nombreux contextes différents à travers le monde », a déclaré Pat de Brún, chercheur et conseiller sur l’intelligence artificielle et les droits humains à Amnesty.

« L’entreprise s’est montrée totalement réticente ou incapable de résoudre les causes profondes de son impact sur les droits humains. »

Après que la mission d’enquête internationale indépendante de l’ONU sur le Myanmar ait souligné le rôle « significatif » joué par Facebook dans les atrocités perpétrées contre les Rohingyas, Meta a admis en 2018 que « nous ne faisions pas assez pour empêcher que notre plateforme ne soit utilisée pour fomenter la division ». et inciter à la violence hors ligne.

Au cours des années suivantes, la société « a vanté certaines améliorations dans ses pratiques d’engagement communautaire et de modération de contenu au Myanmar », a déclaré Amnesty, ajoutant que son rapport « conclut que ces mesures se sont révélées totalement inadéquates ».

En 2020, par exemple, trois ans après que les violences au Myanmar ont tué des milliers de musulmans rohingyas et déplacé 700 000 autres, Facebook a enquêté sur la façon dont une vidéo d’une figure de proue de la haine anti-rohingya, U Wirathu, circulait sur son site.

L’enquête a révélé que plus de 70 % des vues de la vidéo provenaient d’un « chaînement », c’est-à-dire qu’il a été suggéré aux personnes qui ont visionné une vidéo différente, montrant ce qui se passe ensuite. Les utilisateurs de Facebook ne cherchaient pas ou ne recherchaient pas la vidéo, mais l’avaient alimentée par les algorithmes de la plateforme.

Wirathu était banni de Facebook depuis 2018.

«Même une approche bien dotée en ressources pour la modération de contenu, prise isolément, n’aurait probablement pas suffi à prévenir et à atténuer ces dommages algorithmiques. C’est parce que la modération du contenu ne parvient pas à traiter la cause profonde de l’amplification algorithmique du contenu préjudiciable par Meta », indique le rapport d’Amnesty.

Les réfugiés rohingyas demandent des réparations non spécifiées au géant des médias sociaux basé à Menlo Park, en Californie, pour son rôle dans la perpétuation du génocide. Meta, qui fait l’objet de poursuites jumelles aux États-Unis et au Royaume-Uni pour 150 milliards de dollars pour les réfugiés rohingyas, a jusqu’à présent refusé.

« Nous pensons que le génocide contre les Rohingyas n’a été possible que grâce à Facebook », a déclaré Sawyeddollah. « Ils communiquaient entre eux pour répandre la haine, ils organisaient des campagnes via Facebook. Mais Facebook était silencieux.



Source link -39