L’arme des autocrates



Exclusif

Statut : 07.03.2023 06:00

Les populistes et les autocrates du monde entier utilisent de plus en plus les médias sociaux pour attaquer les démocraties. Les dénonciateurs avertissent en vain. Votre accusation : les entreprises technologiques et les politiciens en font encore trop peu.

Par Petra Nagel, Svea Eckert, Stella Peters, Ciara Cesaro-Tadic, Petra Blum et Tobias Dammers (WDR/NDR)

Lorsque les populistes de droite ont récemment pris d’assaut le district gouvernemental au Brésil, une autre grande démocratie a failli être renversée. Il commémorait la prise du Capitole américain deux ans plus tôt. Là encore, les attaques sur les réseaux sociaux ont été alimentées. Encore une fois, les entreprises technologiques ont déclaré par la suite que de nombreux comptes avaient été supprimés. Apparemment encore trop tard. Comment est-ce possible ?

Haine et discours de haine, manipulation des élections, diffusion de conspirations : les populistes et les autocrates du monde entier jouent du clavier des réseaux sociaux de manière de plus en plus sophistiquée et efficace.

La dénonciatrice de Facebook Frances Haugen avait mis en garde contre cela. Avec des milliers de documents provenant de l’intérieur du groupe, elle a fait sensation dans le monde entier à l’automne 2021 et a fait de graves allégations : les puissantes plateformes de Meta mettraient en danger les personnes et les démocraties dans le monde entier, le groupe sait exactement quels dommages il cause, mais fait passer le profit avant le bien-être de ses utilisateurs.

Ni supprimé ni bloqué

Des journalistes de WDR, NDR et SZ ont à nouveau évalué leurs fichiers Facebook. La nouvelle analyse des données montre que de nombreux groupes, réseaux ou comptes que les employés de Facebook avaient répertoriés en interne comme nuisibles il y a des années étaient toujours actifs. Meta ne l’avait ni supprimée ni bloquée. Le groupe ne commente pas cela.

Frances Haugen est touchée par le résultat de la recherche : « Mon Dieu, c’est incroyable ». Dans le ARDinterview, elle reproche au groupe d’avoir trop peu investi dans le domaine de la désinformation depuis des années.

Meta nie cela. Le porte-parole de Meta, Klaus Gorny, l’a mentionné dans une interview en novembre dernier. WDR et NDR à 40 000 professionnels de la sécurité dans le monde et des investissements de cinq milliards de dollars au cours de la seule dernière année. Mais cela ne suffit apparemment pas pour le flot de publications et de vidéos de près de trois milliards d’utilisateurs sur ce qui reste la plus grande plateforme au monde.

Car quelques mois après l’interview, des partisans du président Bolsonaro, qui avaient été chassés, ont pris d’assaut le quartier gouvernemental au Brésil. Les attaques ont été alimentées et organisées sur les réseaux sociaux – y compris sur Facebook. Meta dit qu’il supprimait constamment le contenu contrefaisant autour de l’élection brésilienne. Mais à quel point Meta prend-il au sérieux sa responsabilité dans les attaques contre la démocratie ?

Fini les opposants en grand.

L’ancienne employée de Facebook, Sophie Zhang, rapporte qu’en 2019, elle a découvert des masses de faux comptes d’acteurs politiques qui se cachaient derrière de faux noms sur Facebook et y faisaient sensation. « Le gouvernement azerbaïdjanais, par exemple, avait probablement des dizaines de milliers de faux comptes. Ils les ont utilisés pour détruire les opposants et les critiques à grande échelle. » Meta souligne que de nombreux faux comptes ont ensuite été supprimés.

Et le parti au pouvoir azerbaïdjanais nie avoir utilisé de faux comptes. En effet, lors des entretiens avec WDR/NDR– Des reporters sur une page Facebook avec des informations sur l’Azerbaïdjan ont spontanément trouvé de nombreux comptes azerbaïdjanais qui fonctionnent selon le même schéma.

Facebook souligne que la lutte contre les comptes non authentiques est une priorité pour le groupe. Mais même après que des trolls russes avec de faux comptes se soient massivement ingérés dans la campagne électorale américaine de 2016, Facebook avait assuré qu’il ferait tout son possible pour l’arrêter. Cependant, la recherche montre que la propagande russe avec ses usines de trolls et ses faux comptes s’est également poursuivie.

Pour Frances Haugen, le modèle économique de Facebook est au cœur du problème : Facebook vend des publicités personnalisées que les annonceurs peuvent utiliser pour atteindre les clients potentiels de manière ciblée. Pour ce faire, le groupe collecte un maximum de données personnelles auprès de ses utilisateurs. Plus les utilisateurs restent longtemps sur la plateforme, plus Facebook peut collecter de données pour les ventes d’annonces et ainsi faire plus de profit.

Pour s’assurer que les gens restent particulièrement longtemps sur la plateforme, l’algorithme de Facebook privilégie ce à quoi les gens réagissent le plus : le contenu émotionnel. Cela comprenait le discours de haine, le complot et les mensonges.

« Le modèle commercial est toujours le problème », Svea Eckert, NDR, sur les forces anti-démocratiques sur les plateformes de médias sociaux

tagesschau24 10h00, 7.3.2023

Plus de portée grâce aux émotions

« Il existe des études qui montrent que le contenu factuel génère dix fois moins de portée sur Facebook que le contenu émotionnel. Et les mensonges sont généralement plus émotionnels que les faits, et cela signifie également que les mensonges ont plus de chances d’attirer l’attention que les faits. », explique l’expert en communication. Johannes Hillje. Des acteurs populistes et radicaux exploiteraient ce principe.

La journaliste et auteure du « New York Times », Cecilia Kang, rapporte que Facebook a modifié l’algorithme avant les dernières élections américaines. Ce « joli fil d’actualité » privilégiait alors les informations issues de médias de qualité. « Il y avait moins de désinformation. Ce qui s’est également passé, cependant, c’est que le nombre d’utilisateurs a diminué. Il y avait moins d’interaction sur la plateforme. » Après les élections, Facebook est revenu à l’ancien algorithme qui promeut les contenus polarisants. « Alors ils avaient le choix et ils se sont mis d’accord sur le nombre d’utilisateurs. »

Les partisans radicaux de Trump se seraient alors alimentés et organisés dans les « groupes Stop the Steal » sur Facebook. Deux mois plus tard, c’était la prise du Capitole. Meta a alors bloqué le compte de Donald Trump et souligné que les contenus qui avaient appelé à la prise d’assaut du Capitole ont été très rapidement supprimés.

L’Europe a répondu. Au printemps 2022, l’UE a adopté une mégaloi destinée à réglementer de manière exhaustive les principales plateformes – la soi-disant loi sur les services numériques, ou DSA en abrégé. Entre autres choses, les entreprises technologiques doivent désormais au moins supprimer rapidement les contenus illégaux. Sinon, il y a un risque d’amendes élevées. Les scientifiques devraient être autorisés à voir les algorithmes.

Pour le lanceur d’alerte Christopher Whylie, rien de tout cela ne va assez loin : « Pourquoi ne testons-nous pas le comportement des algorithmes avant de les diffuser au public ? Je dois tester la sécurité d’un réfrigérateur ou d’un grille-pain avant d’être autorisé à le vendre ». . Comment se fait-il donc qu’une plateforme puisse utiliser des algorithmes qui propagent la désinformation partout sans la tester au préalable ? »

La publicité personnalisée n’est pas interdite

Et il manque quelque chose à la nouvelle loi : l’interdiction de la publicité personnalisée. En 2020, le Parlement européen avait voté en sa faveur à la majorité. Parce que les populistes ont systématiquement utilisé la publicité personnalisée à maintes reprises pour envoyer des messages extrêmes et des histoires de complot spécifiquement aux électeurs réceptifs. Mais une interdiction de la publicité personnalisée toucherait au cœur le modèle commercial des géants de la technologie et avec lui leurs milliards de chiffre d’affaires. Une campagne de lobbying subtile sans précédent s’en est suivie.

La stratégie : ce ne sont pas vos propres milliards de chiffre d’affaires qui sont menacés, mais ceux des petites et moyennes entreprises – un récit mémorable, surtout dans la pandémie. L’ambiance à Bruxelles a rapidement changé : environ un an après la proposition initiale, il n’y avait soudainement plus de majorité en faveur d’une interdiction de la publicité personnalisée. « Finalement, il n’y a pas eu de majorités, ni au Conseil ni au Parlement lui-même », résume Phrabat Agarwal, responsable à la Commission européenne. « Bien sûr, le lobbying a joué un rôle. »

Il y a maintenant une nouvelle impulsion du Parlement européen : au moins dans le cas de la publicité politique, toutes les données personnelles ne doivent être utilisées qu’avec le consentement exprès de l’utilisateur. Mais plusieurs États membres s’y sont déjà opposés.

Et un autre point est dangereux pour les démocraties. Facebook réitère que les déclarations faites par les politiciens ne seront pas vérifiées et ne seront pas supprimées, même si elles sont fausses ou violent les règles de Facebook. « Mentir est un problème. Ce n’est pas agréable », déclare le porte-parole de Meta, Klaus Gorny, dans une interview WDR et NDR. « Mais ce n’est pas non plus interdit dans notre société, donc ici aussi, nous ne croyons pas que nous devrions être les juges du vrai ou du faux. »

Une licence pour les autocrates ?

Une licence pour les autocrates et les populistes, disent les critiques. Aussi pour la prochaine campagne électorale de Trump. Meta a déjà levé son interdiction plus tôt cette année. Le dénonciateur Whylie est dans l’ensemble pessimiste et craint « que nous entrions dans un état constant de guerre de l’information. Que nos élections soient désormais des champs de bataille où les pays diffusent délibérément de la désinformation pour atteindre des objectifs géopolitiques ».

La machine à puissance – Comment Facebook et Cie mettent en danger les démocraties

Palina Milling, WDR, 07/03/2023 06h08

Vous pourrez en voir plus sur le sujet à 22h50 dans le reportage en première : La machine électrique



Source link -15