Customize this title in frenchL’autorité française des médias demande aux plateformes d’intensifier la lutte contre les discours de haine

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les plates-formes numériques telles que Facebook et YouTube doivent investir davantage dans la modération et les rapports de contenu, et accroître la transparence pour se conformer aux nouvelles lois numériques de l’UE, a déclaré lundi 24 juillet l’organisme français de surveillance des médias.

Lisez l’histoire française originale ici.

À un mois de l’entrée en vigueur de la loi phare sur les services numériques (DSA) de l’UE, et près de deux ans après l’adoption de la loi française anticipant la DSA, l’Autorité de régulation de l’audiovisuel et des communications numériques, connue sous le nom d’Arcom, a décidé de faire l’inventaire des « moyens mis en œuvre par les plateformes pour lutter contre les contenus haineux ».

Pour établir le rapport, Arcom a observé 13 services numériques au cours de l’année écoulée et a envoyé un questionnaire à chaque entreprise. Parmi ces services numériques, 11 seront soumis à un régime particulièrement strict en vertu de la loi numérique de l’UE à partir du 25 août car ils sont qualifiés de plateformes « systémiques ».

Il s’agit notamment de Google Search, YouTube, LinkedIn, Facebook, Instagram, Bing, Pinterest, Snap, TikTok, Twitter et la Wikimedia Foundation. Yahoo et Dailymotion ont également été examinés dans le cadre du rapport mais n’auront qu’à se conformer à la DSA en 2024 car ils n’atteignent pas le seuil pour être qualifiés de très grandes plateformes en ligne.

Les entreprises « prennent progressivement la mesure de leur responsabilité sociale », a déclaré Arcom.

Selon Arcom, les plateformes ont l’effet positif d’être de « nouvelles agoras » au cœur du débat public. Cependant, leurs modèles commerciaux, basés sur la publicité et l’attention, comportent des risques pour les utilisateurs.

Les entreprises ont toutes construit leur propre «régime d’autorégulation» pour atténuer ces risques systémiques. Cependant, le rapport se penche sur le développement d’une « plus grande responsabilité pour les plateformes » dans le but de réduire les risques pour les utilisateurs.

Pour s’assurer que les services numériques sont conformes à la DSA, le rapport recommande en premier lieu que les plateformes « respectent les obligations de transparence » avec toutes les parties prenantes luttant contre les discours de haine en ligne.

Pour y parvenir, le rapport recommande de simplifier les mécanismes de signalement et d’augmenter les ressources disponibles pour la modération.

Outils de reporting

En ce qui concerne le signalement de contenu haineux, Arcom pense que cela devrait être simplifié pour les utilisateurs et qu’ils devraient être mieux guidés pendant le processus de signalement.

Les recommandations d’Arcom incluent la simplification des pictogrammes, l’amélioration des rubriques d’avertissement et les accompagner d’exemples concrets. Le rapport cite Snapchat, dont « la liste des motifs de signalement est longue » mais conviviale car elle est « classée en sous-ensembles ».

L’organisme français de surveillance des médias suggère également que les utilisateurs qui signalent des contenus préjudiciables se voient rappeler la loi actuellement en vigueur, que des commentaires écrits soient joints aux demandes de signalement et que les utilisateurs puissent signaler des comptes entiers plutôt que des éléments de contenu isolés.

Arcom demande également aux plateformes numériques de permettre « aux utilisateurs d’indiquer s’ils souhaitent être tenus informés de l’avancement de leur signalement ».

Modération du contenu

Sur la modération des contenus, Arcom appelle à plus de transparence sur les moyens déployés, notamment le nombre de modérateurs employés pour chaque langue.

Cela nécessite également des ressources humaines et algorithmiques adéquates pour les analyses et les décisions de modération.

La source des alertes, qu’il s’agisse d’utilisateurs, de « signaleurs de confiance » ou d’autorités publiques, est quelque chose qu’Arcom souhaite voir systématiquement indiqué dans les rapports de transparence. Les « signaleurs de confiance », selon la DSA, sont des organismes reconnus pour leur expertise dans l’identification des contenus illicites, comme les ONG spécialisées ou les associations de consommateurs.

La contestation des décisions de modération de contenu devrait être autorisée pour tous les utilisateurs, selon Arcom, qui pointe également le taux élevé de rejet des premières décisions, TikTok et Dailymotion révoquant respectivement 40% et 44% des contestations sans possibilité de recours.

Autres recommandations

Dans le rapport, Arcom souligne également l’importance pour les plateformes d’accroître la transparence de leurs activités, de nouer des liens avec des signaleurs de confiance et de renforcer la coopération avec les autorités publiques dans le cadre du devoir de vigilance énoncé dans le DSA.

Certaines des recommandations concernent également les moyens de clarifier les conditions d’utilisation et de les rendre plus accessibles.

Le l’autorité signale que seule la coopération des acteurs publics et privés « permettra une réponse pénale efficace aux contenus haineux ».

« La DSA les obligera à répondre avec diligence aux autorités pour prendre des mesures contre le contenu, identifier l’auteur, motiver précisément un refus et rendre ces actions publiques », ajoute-t-il.

[Edited by Luca Bertuzzi/Alice Taylor]

En savoir plus avec EURACTIV



Source link -57