Twitter risque d’être poursuivi en Allemagne pour ne pas avoir supprimé les contenus antisémites

[ad_1]

Twitter fait face à un procès en Allemagne pour sa non-suppression de contenu antisémite, dans une affaire qui pourrait avoir des implications plus larges pour la capacité des utilisateurs à assurer l’application des termes et conditions des plateformes.

La poursuite, lancée devant un tribunal de Berlin mercredi 25 janvier, est intentée par l’organisation de défense des droits numériques HateAid et l’Union européenne des étudiants juifs (EUJS) et porte sur six éléments de contenu signalés à Twitter pour leur antisémitisme.

Les deux organisations soutiennent que le refus de la plateforme de supprimer le matériel, qui dans certains cas contenait une banalisation ou un déni de l’Holocauste (Shoah), a violé ses règles et politiques.

L’affaire est réglée pour déterminer si cela rompt un contrat entre la plate-forme et ses utilisateurs et si ces derniers ont le droit de poursuivre en justice, même s’ils ne sont pas personnellement affectés par le contenu en infraction.

« Nous avons remis le contrôle du discours public sur Internet entre les mains d’entreprises privées et d’investisseurs. Twitter assure qu’il ne tolérera pas la violence sur sa plateforme. Les utilisateurs doivent pouvoir compter là-dessus », a déclaré Joséphine Ballon, responsable juridique de HateAid.

« Mais dans la pratique, nous voyons le contraire se produire : les contenus illégaux sont au mieux supprimés de manière arbitraire et non transparente. Cela doit enfin changer. Twitter nous doit une plate-forme de communication où nous pouvons nous déplacer librement et sans crainte de haine et d’agitation.

L’Allemagne demande à l’UE de maîtriser Twitter

L’Allemagne a appelé jeudi 22 décembre l’Union européenne à envisager de réglementer les décisions « abruptes » et « arbitraires » sur Twitter depuis la prise de contrôle d’Elon Musk.

L’affaire repose sur six éléments de contenu, qui, selon HateAid et l’EUJS, incluent la sédition en vertu de la loi allemande et les commentaires illégaux et antisémites. Ce matériel a été signalé à la plateforme mais n’a pas été retiré, Twitter refusant explicitement de supprimer un commentaire lié à la négation de l’Holocauste.

Le procès fait valoir que cela a violé les propres politiques de Twitter sur les comportements haineux et les comportements abusifs, qui engagent respectivement la plate-forme à « lutter contre les abus motivés par la haine, les préjugés ou l’intolérance » et à interdire le contenu qui « nie les meurtres de masse ou d’autres événements faisant de nombreuses victimes ». , comme l’Holocauste.

La contestation judiciaire repose sur l’argument selon lequel, en acceptant ces politiques lors de l’enregistrement d’un compte sur la plateforme, les utilisateurs concluent un contrat avec Twitter, qui à son tour accepte d’appliquer ses propres termes et conditions. La société a rompu ce contrat en ne supprimant pas le contenu qui enfreint ces règles, ont déclaré HateAid et l’EUJS.

Cependant, les implications potentielles de l’affaire sont plus larges que ces cas spécifiques de non-suppression de contenu. Une partie du but de la poursuite est de clarifier si les plateformes ont l’obligation légale de mettre en œuvre ces conditions et, dans l’affirmative, si les utilisateurs ont le droit légal de poursuivre leur application là où elle fait défaut.

Cela pourrait signifier que les utilisateurs peuvent utiliser les tribunaux pour faire pression pour la suppression du contenu en infraction, même si cela ne les affecte pas directement.

Un verdict favorable marquerait une rupture avec la situation actuelle en Allemagne, où une plainte doit être enregistrée auprès de l’Office fédéral de la justice, qui peut alors administrer une amende si la preuve d’un manquement systématique de la plateforme est trouvée.

Aucun cas de ce type ne s’est produit depuis l’entrée en vigueur en 2018 de la loi historique sur la modération du contenu, la Network Enforcement Act (NetzDG).

EURACTIV a tenté de contacter Twitter pour obtenir une réponse, mais n’a pas trouvé de coordonnées de presse. Les messages envoyés aux adresses e-mail de trois employés ont rebondi.

La modération du contenu et les approches du contenu haineux ou incitant à la haine sur les réseaux sociaux sont depuis longtemps des sujets controversés et des points de discussion intenses au sein des entreprises technologiques et parmi les décideurs politiques numériques.

Il a été constaté que des cas de discours de haine sur Twitter avaient augmenté à la suite chaotique de la prise de contrôle de la plate-forme par Elon Musk en 2022. Pendant ce temps, une grande partie du personnel de la plateforme, dont beaucoup travaillaient sur la modération de contenu et dans des équipes telles que les droits de l’homme et l’éthique de l’IA, a été licencié.

Une étude réalisée en 2021 par le Center for Countering Digital Hate a révélé que les entreprises de médias sociaux n’ont pas agi sur 84% des contenus contenant de la haine anti-juive et 80% des messages contenant la négation ou la minimisation de l’Holocauste.

Twitter, la recherche a montré, n’a agi que sur 11% des messages antisémites signalés, le deuxième taux le plus bas sur les principales plateformes, juste derrière Facebook avec 10,9%.

« En autorisant la diffusion de contenus haineux, l’entreprise ne parvient pas à protéger les utilisateurs et en particulier les jeunes juifs. Ce qui commence en ligne ne finit pas en ligne. Ce faisant, Twitter cultive la haine et la violence réelles et ne tient pas compte de nos valeurs démocratiques », a déclaré Avital Grinberg, président de l’EUJS.

[Edited by Luca Bertuzzi/Nathalie Weatherald]



[ad_2]

Source link -42