[ad_1]
Un procès intenté au Kenya allègue que les systèmes de recommandations de Facebook ont amplifié les messages violents, attisant le conflit.
Une action en justice accusant Meta Platforms d’avoir permis aux publications violentes et haineuses d’Éthiopie de prospérer sur Facebook, enflammant la guerre civile sanglante du pays, a été déposée.
Le procès, déposé mardi devant la Haute Cour du Kenya, a été intenté par deux chercheurs éthiopiens et le groupe kényan de défense des droits, l’Institut Katiba.
Il allègue que les systèmes de recommandations de Facebook ont amplifié les messages violents en Éthiopie, dont plusieurs qui ont précédé le meurtre du père de l’un des chercheurs.
Les plaignants demandent au tribunal d’ordonner à Meta de prendre des mesures d’urgence pour rétrograder les contenus violents, augmenter le personnel de modération à Nairobi et créer des fonds de restitution d’environ 2 milliards de dollars pour les victimes de violences incitées sur Facebook.
Parmi les plaignants se trouve Abrham Meareg, qui a déclaré que son père, l’universitaire tigréen Meareg Amare Abrha, avait été tué après la publication de messages sur Facebook faisant référence à lui en utilisant des insultes ethniques en octobre 2021.
Les messages partageaient l’adresse d’Abrha et appelaient à sa mort. Meareg les a signalés à Facebook, mais la société a refusé de les supprimer rapidement ou dans certains cas du tout, selon le procès. Son père a été abattu en novembre dernier.
« Si Facebook venait d’arrêter la propagation de la haine et de modérer correctement les messages, mon père serait toujours en vie », a déclaré Meareg.
« Je traîne Facebook en justice pour que personne ne souffre plus jamais comme ma famille. Je demande justice pour des millions de mes compatriotes africains blessés par les profits de Facebook – et des excuses pour le meurtre de mon père », a-t-il ajouté.
Le procès a déclaré que la société n’avait pas fait preuve de diligence raisonnable dans la formation de ses algorithmes pour identifier les publications dangereuses et dans l’embauche de personnel pour contrôler le contenu des langues couvertes par son centre de modération régional à Nairobi.
La porte-parole de Meta, Erin McPike, a déclaré que les discours de haine et l’incitation à la violence étaient contraires aux règles de Facebook et d’Instagram.
« Nous investissons massivement dans les équipes et la technologie pour nous aider à trouver et supprimer ce contenu », a ajouté McPike. « Nous employons du personnel ayant des connaissances et une expertise locales et continuons à développer nos capacités pour détecter les contenus en infraction dans les langues les plus parlées en » Éthiopie.
L’année dernière, le conseil de surveillance indépendant de Meta a recommandé un examen de la manière dont Facebook et Instagram ont été utilisés pour diffuser des contenus qui augmentent le risque de violence en Éthiopie.
Depuis que le conflit a éclaté en 2020 entre le gouvernement éthiopien et les forces rebelles de la région du nord du Tigré, des milliers de personnes sont mortes et des millions ont été déplacées. Un accord de paix entre les deux parties a été signé en novembre, mais les tensions demeurent.
L’action en justice intentée contre Meta fait écho aux accusations auxquelles la société est confrontée depuis des années d’atrocités attisées sur ses plateformes, notamment au Myanmar, au Sri Lanka, en Indonésie et au Cambodge.
L’entreprise a reconnu être « trop lente » à agir au Myanmar et dans d’autres conflits.
[ad_2]
Source link -31