Le comité de surveillance de Meta dénonce les lacunes du système de modération VIP de Facebook

[ad_1]

Le conseil de surveillance de Meta a critiqué le programme de vérification croisée de Facebook, qui modère ses utilisateurs les plus puissants.

Le système interne, qui exempte les utilisateurs de premier plan, y compris l’ancien président américain Donald Trump, de tout ou partie de ses règles de modération de contenu, « est défectueux dans des domaines clés auxquels l’entreprise doit s’attaquer », a déclaré le conseil d’administration dans un rapport.

Le conseil d’administration a accepté une demande de la société d’examiner, de contre-vérifier et de faire des recommandations sur la façon dont il pourrait être amélioré.

Il a constaté que Meta effectuait environ 100 millions de tentatives d’application de contenu chaque jour.

« A ce volume, même si Meta était capable de prendre des décisions de contenu avec une précision de 99%, il ferait encore un million d’erreurs par jour », indique le rapport.

« A cet égard, alors qu’un système d’examen du contenu doit traiter équitablement tous les utilisateurs, le programme de contre-vérification répond à des défis plus larges en modérant d’immenses volumes de contenu. »

Le rapport du comité de surveillance indique que le système de vérification croisée a entraîné un traitement inégal des utilisateurs et qu’il a entraîné des retards dans la suppression de contenus qui enfreignaient les règles car il y avait jusqu’à cinq vérifications distinctes.

Les décisions, en moyenne, ont pris plus de cinq jours, a-t-il constaté.

« Lorsque les utilisateurs des listes de vérification croisée de Meta publient un tel contenu, il n’est pas immédiatement supprimé comme il le serait pour la plupart des gens, mais est laissé en attente d’un examen humain plus poussé », indique le rapport.

« Lors de notre examen, nous avons trouvé plusieurs lacunes dans le programme de contre-vérification de Meta. Bien que Meta ait déclaré au conseil d’administration que la contre-vérification visait à faire progresser les engagements de Meta en matière de droits de l’homme, nous avons constaté que le programme semblait plus directement structuré pour répondre aux préoccupations des entreprises. »

Le conseil d’administration a déclaré qu’il comprenait que Meta est une entreprise, mais en offrant une protection supplémentaire à certains utilisateurs sélectionnés en grande partie en fonction des intérêts commerciaux, la vérification croisée permet au contenu qui serait autrement supprimé rapidement de rester actif plus longtemps, ce qui pourrait causer des dommages.

Pour le contenu publié par les utilisateurs américains, la décision moyenne a pris 12 jours, et pour l’Afghanistan et la Syrie, c’était 17 jours. Dans certains cas, cela a pris beaucoup plus de temps : un élément de contenu a attendu 222 jours – plus de sept mois – pour une décision, selon le rapport, sans fournir plus de détails.

Le conseil a noté qu’il avait pris connaissance pour la première fois d’un recoupement en 2021 lorsqu’il avait statué sur son cas concernant la suspension des comptes de l’ancien président américain Donald Trump.

Nick Clegg, président de Meta pour les affaires mondiales, a tweeté que la société avait demandé la révision du système « afin que nous puissions continuer notre travail pour améliorer le programme ».

Pour répondre pleinement aux recommandations du conseil, « nous avons convenu de répondre dans les 90 jours », a-t-il ajouté.

Parmi ses 32 recommandations, le conseil a déclaré que Meta « devrait accorder la priorité à l’expression qui est importante pour les droits de l’homme, y compris l’expression qui revêt une importance publique particulière ».

Mis à jour: 07 décembre 2022, 14:27



[ad_2]

Source link -38