Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsPlus tôt cette semaine, le Comité national républicain a publié une vidéo qui, selon lui, a été « entièrement construite avec des images d’IA ». Le contenu de l’annonce n’est pas particulièrement nouveau – une vision dystopique de l’Amérique sous un second mandat avec le président Joe Biden – mais l’accent délibéré sur la technologie utilisée pour la créer se démarque : c’est un moment « Daisy » pour les années 2020.On devrait s’attendre à plus de ce genre de choses. Les applications de l’IA à la publicité politique n’ont pas échappé aux militants, qui « testent déjà sous pression » les utilisations possibles de la technologie. Lors de la campagne électorale présidentielle de 2024, vous pouvez miser sur l’apparition d’e-mails de collecte de fonds personnalisés générés par l’IA, de SMS de chatbots vous invitant à voter, et peut-être même de certains avatars de campagne deepfakes. Les futurs candidats pourraient utiliser des chatbots formés sur des données représentant leurs points de vue et leurs personnalités pour se rapprocher de l’acte de se connecter directement avec les gens. Pensez-y comme à une visite éclair avec une apparition dans chaque salon. Les révolutions technologiques précédentes – chemin de fer, radio, télévision et le World Wide Web – ont transformé la façon dont les candidats se connectent à leurs électeurs, et nous devrions nous attendre à la même chose de l’IA générative. Ce n’est pas de la science-fiction : l’ère des chatbots IA servant d’avatars pour de vraies personnes individuelles a déjà commencé, comme l’a clairement indiqué le journaliste Casey Newton dans un article de 2016 sur une femme qui a utilisé des milliers de messages texte pour créer une réplique de chatbot. de son meilleur ami après sa mort.La clé est l’interaction. Un candidat peut utiliser des outils activés par de grands modèles linguistiques, ou LLM – la technologie derrière des applications telles que ChatGPT et la création artistique DALL-E – pour effectuer des micro-sondages ou des tests de messages, et pour solliciter individuellement les points de vue et les témoignages de leur public politique. et à grande échelle. Les candidats pourraient potentiellement atteindre n’importe quel électeur qui possède un smartphone ou un ordinateur, pas seulement ceux qui ont le revenu disponible et le temps libre pour assister à un rassemblement électoral. Au mieux, l’IA pourrait être un outil pour accroître l’accessibilité de l’engagement politique et atténuer la polarisation. Au pire, cela pourrait propager la désinformation et augmenter le risque de manipulation des électeurs. Quoi qu’il en soit, nous savons que des agents politiques utilisent ces outils. Prendre en compte leur potentiel maintenant, ce n’est pas acheter dans le battage médiatique, c’est se préparer à tout ce qui peut arriver ensuite.Du côté positif, et plus profondément, les LLM pourraient aider les gens à réfléchir, à affiner ou à découvrir leurs propres idéologies politiques. Des recherches ont montré que de nombreux électeurs adoptent leurs positions politiques par réflexe, par sentiment d’appartenance partisane. L’acte même de réfléchir à ces points de vue à travers le discours peut changer, voire dépolariser, ces points de vue. Il peut être difficile d’avoir des conversations politiques réfléchies avec un interlocuteur humain informé et équilibré lorsque nous vivons tous dans un environnement politique très chargé ; c’est un rôle presque conçu sur mesure pour LLM.Lire : Le retour de la People MachineDans la politique américaine, c’est un truisme de dire que la ressource la plus précieuse d’une campagne est le temps. Les gens sont occupés et distraits. Les campagnes ont une fenêtre limitée pour convaincre et activer les électeurs. L’argent permet à un candidat d’acheter du temps : publicités télévisées, travail des membres du personnel et événements de collecte de fonds pour collecter encore plus d’argent. Les LLM pourraient fournir aux campagnes ce qui est essentiellement une presse à imprimer pour le temps.Si vous étiez un agent politique, que feriez-vous plutôt : diffuser une courte vidéo sur la télévision d’un électeur pendant qu’il plie du linge dans la pièce voisine, ou échanger des réflexions avec un électeur sur les principaux problèmes de votre candidat ? Un membre du personnel qui frappe aux portes peut avoir besoin de démarcher 50 maisons en deux heures pour trouver un électeur prêt à avoir une conversation. OpenAI facture des sous pour traiter environ 800 mots avec son dernier modèle GPT-4, et ce coût pourrait chuter considérablement à mesure que des IA concurrentes deviennent disponibles. Les gens semblent aimer interagir avec les chatbots ; Le produit d’OpenAI aurait la base d’utilisateurs à la croissance la plus rapide de l’histoire des applications grand public.De manière optimiste, un résultat possible pourrait être que nous serons moins ennuyés par le déluge de publicités politiques si leur message est plus utilement adapté à nos intérêts par les outils d’IA. Bien que les preuves de l’efficacité du microciblage soient au mieux mitigées, certaines études montrent que cibler les bons problèmes aux bonnes personnes peut persuader les électeurs. Il est raisonnable de s’attendre à ce que des approches plus sophistiquées et assistées par l’IA soient plus efficaces. Et tout ce qui peut nous empêcher de voir le même spot de campagne de 30 secondes 20 fois par jour semble être une victoire.L’IA peut également aider les humains à réaliser leurs intérêts politiques. Lors de l’élection présidentielle américaine de 2016, les chatbots primitifs ont joué un rôle dans l’engagement des donateurs et les campagnes d’inscription des électeurs : de simples tâches de messagerie, comme aider les utilisateurs à pré-remplir un formulaire d’inscription sur les listes électorales ou leur rappeler où se trouve leur bureau de vote. Si cela fonctionne, la génération actuelle de chatbots beaucoup plus performants pourrait dynamiser les sollicitations à faible coût et les campagnes de vote.Et la capacité interactive des chatbots pourrait aider les électeurs à mieux comprendre leurs choix. Un chatbot IA pourrait répondre aux questions du point de vue d’un candidat sur les détails de ses positions politiques les plus importantes pour un utilisateur individuel, ou répondre à des questions sur la façon dont la position d’un candidat sur un problème national se traduit dans les paramètres régionaux d’un utilisateur. Les organisations politiques pourraient également les utiliser pour expliquer des questions politiques complexes, telles que celles liées au climat ou aux soins de santé ou… n’importe quoi, vraiment.Bien sûr, cela pourrait aussi mal tourner. Dans la tradition séculaire des démagogues du monde entier, le LLM pourrait représenter de manière incohérente les opinions du candidat pour faire appel aux penchants individuels de chaque électeur.En fait, la nature fondamentalement obséquieuse de la génération actuelle de grands modèles de langage les conduit à agir comme des démagogues. Les LLM actuels sont connus pour halluciner – ou aller complètement hors scénario – et produire des réponses qui n’ont aucun fondement dans la réalité. Ces modèles ne ressentent aucune émotion, mais certaines recherches suggèrent qu’ils ont une capacité sophistiquée pour évaluer l’émotion et le ton de leurs utilisateurs humains. Bien qu’ils n’aient pas été formés à cette fin, ChatGPT et son successeur, GPT-4, peuvent déjà être assez bons pour évaluer certains des traits de leurs utilisateurs, par exemple, la probabilité que l’auteur d’une invite de texte soit déprimé. Combiné à leurs capacités de persuasion, cela signifie qu’ils pourraient apprendre à manipuler habilement les émotions de leurs utilisateurs humains.Ce n’est pas tout à fait théorique. Un nombre croissant de preuves démontre que l’interaction avec l’IA a un effet persuasif sur les utilisateurs humains. Une étude publiée en février a incité les participants à co-écrire une déclaration sur les avantages des plateformes de médias sociaux pour la société avec un chatbot IA configuré pour avoir des points de vue différents sur le sujet. Lorsque les chercheurs ont interrogé les participants après l’expérience de co-écriture, ceux qui ont interagi avec un chatbot qui a exprimé que les médias sociaux sont bons ou mauvais étaient beaucoup plus susceptibles d’exprimer le même point de vue qu’un groupe témoin qui n’a pas interagi avec un « modèle de langage opiniâtre ». .”Pour le moment, la plupart des Américains se disent réticents à faire confiance à l’IA dans des domaines sensibles tels que les soins de santé. Il en est probablement de même en politique. Si un voisin qui se porte volontaire pour une campagne vous persuade de voter d’une manière particulière sur une initiative de vote local, vous pourriez vous sentir bien dans cette interaction. Si un chatbot faisait la même chose,…
Source link -57