Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsMeta devrait poursuivre sa politique de désinformation sur le COVID-19, mais enquêter sur la manière dont son architecture a pu amplifier le contenu préjudiciable ou cibler les groupes vulnérables, selon l’organisme d’examen de l’entreprise. Le conseil de surveillance, qui a été créé pour délibérer sur les questions clés soulevées dans le fonctionnement de Meta, a publié jeudi 20 avril un rapport examinant la politique de désinformation COVID-19 de l’entreprise. en réponse à une question soumise par Meta l’année dernière pour savoir s’il devrait continuer à mettre en œuvre ou assouplir l’approche. Le conseil d’administration a statué que la politique ne devait pas encore être assouplie, mais que l’entreprise devait s’y préparer et, entre-temps, devrait examiner les allégations interdites et évaluer comment la mise en place de ses plateformes pouvait avoir contribué à la propagation de fausses informations. . « Nous sommes préoccupés par le fait que Meta n’a montré aucune preuve qu’il a pris en compte l’impact sur les droits de l’homme que ses algorithmes et son amplification ont eu sur la désinformation néfaste pour la santé », a déclaré Thomas Hughes, directeur du Conseil de surveillance, dans un communiqué. « Aujourd’hui, nous avons demandé à Meta de publier un examen à ce sujet, y compris si les groupes susceptibles de recevoir des informations erronées sur le COVID-19 avaient été ciblés par les choix de conception de Meta. Les utilisateurs ont le droit de savoir. Demande d’examen En juillet 2022, Meta a soumis une demande au Conseil d’administration pour revoir sa politique actuelle sur la désinformation COVID-19, demandant spécifiquement si les mesures doivent être maintenues ou assouplies. En 2020, l’entreprise a adopté une nouvelle approche pour lutter contre les informations trompeuses sur sa plateforme grâce à son ‘Politique de désinformation sur la santé pendant les urgences de santé publique, qui énonce 80 allégations COVID que l’entreprise s’est engagée à supprimer. Cette liste concerne les contenus que les autorités de santé publique jugent « faux et susceptibles de contribuer directement au risque d’atteinte physique imminente ». Cela comprend, par exemple, les démentis de l’existence de la pandémie ou de fausses informations sur les vaccins. Entre mars 2020 et juillet 2022, 27 millions d’informations erronées sur le COVID ont été supprimées de Facebook et d’Instagram pour violation de la politique Meta, dont 1,3 million ont été restaurées à la suite d’un processus d’appel. La désinformation qui tombe en dessous du seuil de suppression peut également être rétrogradée dans les flux ou recevoir des « étiquettes neutres » offrant des informations vérifiées. Facebook déploie de nouvelles alertes d’engagement de désinformation COVID-19 Facebook va mettre en place un nouveau système pour alerter les utilisateurs qui se sont livrés à la désinformation liée au coronavirus, a annoncé jeudi 16 avril le chef de l’entreprise, Mark Zuckerberg. Cette décision intervient après la pression des militants pour que Facebook réprime la diffusion de fausses nouvelles liées à l’épidémie. Constatations et recommandations Dans sa réponse, le Conseil a conclu que Meta ne devrait pas assouplir sa politique de retrait alors que l’Organisation mondiale de la santé considère toujours le COVID-19 comme une urgence de santé publique internationale. Les premières suggestions selon lesquelles l’entreprise pourrait adopter une approche plus localisée ont été jugées irréalisables par Meta. Néanmoins, le Conseil a recommandé qu’il se prépare à la levée de la déclaration de l’OMS pour s’assurer que tout ce qui vient ensuite est conforme à la liberté d’expression et aux droits de l’homme. Dans une série de 18 recommandations, auxquelles Meta dispose désormais de 60 jours pour répondre, le Conseil a également suggéré que la société entame un processus de révision approfondi de sa propre politique afin de réévaluer chacune des 80 réclamations qui y sont incluses et qu’une gamme plus diversifiée de les parties prenantes et les points de vue soient engagés dans ce processus. « Meta devrait écouter un éventail de voix à ce sujet – y compris des voix dissidentes – pour garantir que le droit à la liberté d’expression est protégé en ligne et pour s’assurer que nous ne supprimons pas par défaut plus de contenu que nécessaire », a déclaré Hughes. « Une telle approche mesurée peut éviter d’ouvrir les vannes à un contenu préjudiciable sans savoir qui il atteindra et l’impact qu’il pourrait avoir. » Le rapport suggère également que l’examen examine comment l’architecture des plates-formes de l’entreprise a pu contribuer à l’amplification d’informations préjudiciables et les implications sur les droits de l’homme des choix de conception existants, y compris si ceux-ci conduisent à cibler des groupes plus sensibles à une telle désinformation. Une clarté et une transparence accrues sont également soulignées par le Conseil, qui recommande que Meta fournisse plus d’informations en réponse aux critiques selon lesquelles, au plus fort de la pandémie, il a examiné le contenu à la demande des gouvernements, ce qui fait craindre que cela puisse être utilisé par les autorités pour casser abattre les manifestants ou faire taire les voix dissidentes. Meta devrait également soutenir la recherche indépendante et fournir un accès aux données de l’entreprise, a déclaré le Conseil, notant que ce manque d’accès a créé des défis dans sa propre évaluation pour l’examen. L’examen a également recommandé à l’entreprise de s’assurer que ses règles et politiques sont claires pour les utilisateurs et appliquées de manière cohérente dans différentes langues et régions, garantissant que le droit de recours des utilisateurs est respecté. « Au début de la pandémie, des mesures étaient nécessaires pour assurer la sécurité des personnes en ligne et hors ligne », a déclaré Hughes. « Mais à mesure que la pandémie a évolué et que les restrictions se sont assouplies dans le monde hors ligne, il est dans notre intérêt à tous de veiller à ce que le monde en ligne rattrape son retard. » Meta n’a pas répondu à la demande de commentaire d’EURACTIV au moment de la publication. [Edited by Luca Bertuzzi] !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57