Customize this title in frenchOpinion : Méfiez-vous des applications d’IA en cette période électorale, elles pourraient vous induire en erreur

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Avec les primaires en cours et le retour des électeurs à l’automne pour une élection présidentielle à enjeux élevés, il est probable que de nombreuses personnes utiliseront – sciemment ou inconsciemment – ​​des plateformes d’intelligence artificielle pour répondre aux questions de savoir où, quand et comment voter. Dans une étude récente, nous avons constaté que les informations trompeuses sur les élections abondent sur ces plateformes d’IA. Il appartient aux entreprises technologiques de limiter ces écarts, mais nous avons également besoin d’une réglementation gouvernementale pour les tenir responsables.

Les électeurs peuvent utiliser des robots comme ChatGPT, ou des moteurs de recherche intégrant l’IA, ou la vaste gamme de nouvelles applications et services basés sur l’IA tels que Microsoft Copilot, qui est intégré aux logiciels de bureau tels que Word et Excel, et qui s’est avéré l’année dernière crache des mensonges électoraux.

En janvier, nous avons réuni environ 50 experts (responsables des élections locales et nationales, chercheurs, journalistes, défenseurs de la société civile et vétérans de l’industrie technologique) pour tester cinq des principaux modèles d’IA fermés et ouverts aux requêtes électorales courantes. Parmi les responsables électoraux se trouvaient deux du comté de Los Angeles, qui ont aidé à évaluer les réponses spécifiques à Los Angeles.

Nous avons testé les modèles d’IA en nous connectant à leurs interfaces backend mises à disposition des développeurs. Ces interfaces n’apportent pas toujours les mêmes réponses que les interfaces web des chatbots, mais ce sont les infrastructures sous-jacentes sur lesquelles s’appuient les chatbots et autres services d’IA.

Le les résultats étaient lamentables: La moitié des réponses des modèles d’IA aux questions que les électeurs pourraient poser ont été jugées inexactes par nos experts.

Ils ont commis toutes sortes d’erreurs et inventé des trucs. Llama 2 de Meta a déclaré que les électeurs californiens pouvaient voter par SMS (c’est faux) et a même imaginé un service fictif appelé « Vote par SMS », ajoutant une richesse de détails semblant crédibles.

Un porte-parole de Meta a déclaré que « Llama 2 est un modèle pour les développeurs » et n’est pas un support que le public utiliserait pour poser des questions liées aux élections. Pourtant, Llama 2 est utilisé par des chatbots Web facilement accessibles tels que Laboratoires de perplexité et Poé.

Mistral, un modèle français d’IA, a réussi à affirmer avec précision que le vote par texte n’est pas autorisé. Mais lorsque notre testeur a persisté en demandant comment voter par SMS en Californie, il est revenu avec un « ¡Hablo español ! » enthousiaste et bizarre. Le fabricant de Mistral n’a pas répondu aux demandes de commentaires.

Entre-temps, Google a déclaré en décembre qu’il empêcherait son modèle d’IA, Gemini, de répondre à certaines requêtes liées aux élections. Nous avons trouvé que Gemini était assez bavard, produisant des réponses longues, définitives et souvent inexactes, comprenant des liens vers des sites Web inexistants et des références à des bureaux de vote imaginaires.

Lorsqu’on lui a demandé où voter dans le code postal 19121, un quartier à majorité noire du nord de Philadelphie, Gemini a répondu qu’un tel bureau de vote n’existait pas – même si, bien sûr, c’était le cas. Une telle réponse suscite des inquiétudes quant à la suppression des électeurs. Un représentant de Google nous a dit que l’entreprise apportait régulièrement des améliorations techniques.

En janvier, OpenAI également s’est engagé à ne pas déformer les processus de vote et de diriger ses utilisateurs de ChatGPT vers une source légitime d’informations sur le vote appelée CanIVote.org, qui est gérée par la National Assn. des secrétaires d’État. Cependant, lors de nos tests, il n’a jamais fait référence à CanIVote.org et s’est avéré inexact environ 19 % du temps, par exemple lorsqu’il a affirmé que les électeurs du Texas pouvaient porter un chapeau MAGA lors des urnes (ce qui n’est pas vrai). Un porte-parole d’OpenAI a déclaré en réponse que la société s’engageait à fournir des informations de vote précises.

Selon nos testeurs experts, tous les modèles d’IA ont répondu correctement à une seule question : ils ont tous été en mesure de fournir des preuves précises que l’élection de 2020 n’a pas été volée, probablement parce que les entreprises ont mis en place des filtres de contenu pour garantir que leurs logiciels ne le font pas. Je ne répète pas les théories du complot.

De nombreux États tentent de résoudre le problème en adoptant des lois criminalisant la diffusion de désinformation ou utilisation de deepfakes dans des contextes électoraux. La Federal Communications Commission a également récemment appels automatisés générés par l’IA interdits. Mais ces lois sont difficiles à appliquer, car il est difficile d’identifier le contenu généré par l’IA et encore plus difficile de retrouver qui l’a créé. Et ces interdictions viseraient une tromperie intentionnelle, et non les inexactitudes habituelles que nous avons découvertes.

L’Union européenne a récemment adopté le Loi sur l’IA, qui oblige les entreprises à étiqueter le contenu généré par l’IA et développe des outils de détection des médias synthétiques. Mais cela ne semble pas exiger l’exactitude des élections.

Les réglementations fédérales et étatiques devraient obliger les entreprises à garantir que leurs produits fournissent des informations exactes. Notre étude suggère que les régulateurs et les législateurs devraient également vérifier si les plateformes d’IA remplissent leurs utilisations prévues dans des domaines critiques comme l’information des électeurs.

De la part des entreprises technologiques, nous avons besoin de plus que de simples promesses pour éloigner les hallucinations des chatbots de nos élections. Les entreprises devraient être plus transparentes en divulguant publiquement des informations sur les vulnérabilités de leurs produits et en partageant des preuves de la manière dont elles le font en effectuant des tests réguliers.

D’ici là, notre examen limité suggère que les électeurs devraient probablement éviter les modèles d’IA pour les informations de vote. Les électeurs devraient plutôt se tourner vers les bureaux électoraux locaux et nationaux pour information sûre sur comment et où ils peuvent voter. Les responsables électoraux devraient suivre le modèle de Jocelyn Benson, secrétaire d’État du Michigan qui, avant les élections primaires démocrates de cet État, a averti que « la désinformation et la possibilité pour les électeurs d’être confus, mentis ou trompés » constituaient la menace majeure cette année.

Alors que des centaines d’entreprises d’IA voient le jour, faisons en sorte qu’elles soient compétitives sur la précision de leurs produits, plutôt que sur le seul battage médiatique. Notre démocratie en dépend.

Alondra Nelson est professeur à l’Institute for Advanced Study et éminent chercheur principal au Center for American Progress. Elle a été assistante adjointe du président et directrice par intérim du Bureau de la science et de la technologie de la Maison Blanche.

Julia Angwin est une journaliste d’investigation primée, auteure à succès et fondatrice de Nouvelles de preuveun nouveau studio de journalisme à but non lucratif.

Source link -57