La popularité des chatbots alimentés par l’intelligence artificielle augmente, mais leur utilisation de sources douteuses pose problème. Une enquête révèle que ces outils peuvent véhiculer de la désinformation, notamment des fausses informations d’origine russe. Les chatbots, souvent incapables de distinguer les sources fiables, renforcent ainsi la propagande. La situation soulève des préoccupations quant à la véracité des informations diffusées, surtout dans des contextes où la vérification des faits est faible, compromettant ainsi la confiance du public et la démocratie.
La montée des chatbots IA et la désinformation
De plus en plus d’utilisateurs se tournent vers des chatbots alimentés par l’intelligence artificielle. Cependant, les sources utilisées par ces modèles d’IA soulèvent des interrogations. Une recherche récente révèle que ces chatbots peuvent devenir des vecteurs de propagation de la propagande russe.
Une affirmation erronée a circulé, selon laquelle le président ukrainien Volodymyr Zelensky aurait interdit Truth Social, la plateforme de médias sociaux de Donald Trump. Cette information a été relayée par des chatbots, notamment par le réseau Pravda, proche du Kremlin. En réalité, l’agence de presse AFP a déjà clarifié que Truth Social n’a jamais été accessible en Ukraine, rendant cette interdiction impossible. Pourquoi, alors, certains chatbots continuent-ils de diffuser cette fausse information ?
Les sources problématiques des chatbots
La réponse réside dans le choix des sources. Les chatbots tirent leurs réponses de divers sites Internet, y compris des sources peu fiables. Une enquête menée par NewsGuard a révélé que les dix principaux chatbots IA contribuent à la désinformation en répétant des fausses déclarations provenant du réseau Pravda dans 33 % des cas. Parmi ces fausses informations, une vidéo mise en scène par l’opération d’influence russe Storm-1516 montre prétendument des membres du bataillon Azov brûlant une image de Trump.
NewsGuard souligne que le réseau Pravda déforme les nouvelles en inondant le web avec des informations erronées. En 2024, 3,6 millions d’articles de ce réseau ont été intégrés dans des systèmes d’IA occidentaux, contaminant ainsi leurs réponses avec de la désinformation.
Les chercheurs McKenzie Sadeghi et Isis Blachez estiment que la manipulation des chatbots IA est devenue une des priorités du réseau Pravda. Leur stratégie consiste à saturer Internet de contenus afin d’influencer les algorithmes de recherche. Les sites de Pravda, souvent peu conviviaux, semblent destinés à tromper les robots d’exploration, plutôt qu’à informer le public humain.
Le réseau exploite environ 150 sites, nombreux d’entre eux se faisant passer pour des sources d’actualités indépendantes, afin de se faire considérer comme des références fiables par les modèles d’IA. Ainsi, ces systèmes, qui s’appuient sur des contenus accessibles pour leur apprentissage, sont susceptibles d’incorporer et de renforcer les informations de Pravda.
La Russie, depuis longtemps, cherche à répandre des informations trompeuses, notamment en Allemagne.
L’essor des chatbots IA et les défis de la vérification
La popularité des chatbots IA ne cesse de croître. Selon une étude de l’Institut de Démoscopie Allensbach, 25 % des personnes de 16 ans et plus utilisent déjà ces outils. Les experts prévoient que cette tendance continuera, avec une diminution possible du volume de recherche sur les moteurs traditionnels d’environ 25 % d’ici 2026.
Sadeghi et Blachez soulignent le danger que cela représente : les modèles d’IA ne parviennent pas à différencier les sources fiables des moins crédibles lors de la récupération d’informations. Dans les langues où le cadre de vérification des faits est faible, les chatbots ont encore plus de difficultés.
Plus l’utilisation des outils d’IA se généralise, plus le risque d’influence étrangère sur ces modèles augmente. Lorsque les chatbots s’appuient sur des informations peu fiables, ils compromettent la confiance du public et affaiblissent la démocratie.
Les résultats de l’enquête montrent que le réseau Pravda a déjà réussi à influencer les chatbots IA, exploitant leurs faiblesses. Actuellement, ces derniers n’ont pas de méthodes robustes pour évaluer la crédibilité des sources, les rendant vulnérables à la désinformation. Si cette situation persiste, elle pourrait avoir des conséquences à long terme.
En outre, les chatbots sont souvent sujets à des erreurs. Des études antérieures ont révélé qu’ils peuvent fournir des informations incorrectes avec assurance. Un rapport du Tow Center for Digital Journalism a constaté que les moteurs de recherche IA citent de fausses sources dans 60 % des cas. Ils ont également du mal à refuser de répondre à des questions pour lesquelles ils n’ont pas d’informations précises, offrant ainsi des réponses incorrectes ou spéculatives.
Les chercheurs estiment que résoudre ces problèmes est complexe. Même si les modèles étaient configurés pour bloquer tous les sites de Pravda, de nouveaux pourraient émerger rapidement. Des solutions nécessitent une surveillance humaine, des investissements dans des sources fiables et une collaboration à l’échelle de l’industrie pour contrer la désinformation, notamment dans les langues moins couvertes.
Ce sujet continue de faire l’actualité, notamment avec des rapports récents mettant en lumière l’évolution de la propagande russe, qui cible de plus en plus les partis politiques.