Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Appuyez sur play pour écouter cet article Exprimé par l’intelligence artificielle. LONDRES – Le Royaume-Uni veut être le leader mondial en matière de sécurité de l’IA, mais sur son territoire, il est aux prises avec la menace la plus urgente. Les craintes concernant la prolifération des médias générés par l’IA, connus sous le nom de deepfakes, se sont intensifiées ce week-end lorsqu’un clip audio montrant le chef de l’opposition britannique Keir Starmer injuriant ses employés est devenu viral. Dimanche, des députés de tout le spectre politique britannique ont rapidement averti que le clip était faux. Mais lundi après-midi, le site recueillait encore des vues sur X, anciennement connu sous le nom de Twitter, et approchait les 1,5 million de visites. Une enquête YouGov réalisée en mai auprès de plus de 100 députés britanniques a montré que l’essor du contenu généré par l’IA était leur principale préoccupation concernant les applications de l’IA. Il est facile de comprendre pourquoi. Le ministre travailliste fantôme du numérique, Alex Davies-Jones, a déclaré lundi lors d’un événement en marge de la conférence du parti à Liverpool que les enregistrements du hansard des débats parlementaires offraient aux mauvais acteurs une bibliothèque « à la demande » de députés prononçant « presque n’importe quel mot » – quelque chose qui aiderait massivement le formation de modèles d’IA pour créer des simulations encore plus réalistes de politiciens avant les élections de 2024. « Le défi est d’expliquer aux gens qu’il existe un tout autre ordre de risques avec l’IA générative », a expliqué Andrew Dudfield, responsable de l’IA au sein du groupe de vérification des faits Full Fact. Mais malgré des années d’avertissements concernant la désinformation électorale, aucun régulateur n’est chargé d’y mettre un terme et la réponse du gouvernement aux faux contenus, à travers le projet de loi sur la sécurité en ligne, commence à peine à s’attaquer au problème, préviennent les experts. « Occasion manquée » Publier de la désinformation pour affaiblir les opposants politiques n’a rien de nouveau, mais ce qui empêche les experts de dormir la nuit, c’est la facilité et l’ampleur avec lesquelles le progrès des outils d’IA générative permet à de faux contenus de se propager. Certains espéraient que le projet de loi sur la sécurité en ligne pourrait être utilisé pour lutter contre la montée des deepfakes avant les élections britanniques de l’année prochaine. Mais Dudfield de Full Fact décrit la législation déjà finalisée comme une « opportunité manquée ». « Il est difficile de voir comment cela répondrait de manière significative à une quelconque partie de la désinformation », a-t-il déclaré. Le projet de loi habilite le régulateur Ofcom à garantir que les plateformes protègent les utilisateurs, en particulier les enfants, des « contenus préjudiciables », mais lorsqu’il s’agit de désinformation, les plateformes définissent et suivent leurs propres politiques. Tout ce que l’Ofcom peut faire, c’est vérifier qu’ils les suivent. Et les conditions d’utilisation des plateformes n’arrêtent pas la propagation de la désinformation. X les politiques stipulent que les utilisateurs « ne peuvent pas partager de médias synthétiques, manipulés ou hors contexte », mais cela n’a rien fait pour arrêter le clip de Starmer. SONDAGE ÉLECTORAL AU PARLEMENT NATIONAL DU ROYAUME-UNI Pour plus de données de sondage provenant de toute l’Europe, visitez POLITIQUE Sondage des sondages. Un porte-parole de l’Ofcom a déclaré qu’il créerait un « comité consultatif » sur le problème dans le cadre du projet de loi sur la sécurité en ligne et qu’il menait également des recherches sur les deepfakes et le filigrane, mais a ajouté que cela n’en était qu’à un stade précoce. Autrement On est loin des recommandations d’un comité de la Chambre des Lords en 2020. Les législateurs de la commission de la démocratie et des technologies numériques souhaitaient que des dispositions du projet de loi sur la sécurité en ligne obligent les plateformes à prendre des mesures contre les contenus portant atteinte à la démocratie. Il a également recommandé aux régulateurs de créer un comité puissant chargé d’examiner la publicité politique. Le comité des Lords était présidé par son homologue travailliste David Puttnam, aujourd’hui à la retraite, mais qui est toujours actif dans ce domaine à travers un groupe appelé Reform Political Advertising (RPA). « Je suis tellement en colère. C’est très difficile pour moi d’avoir cette conversation », a-t-il déclaré à POLITICO. « Nous nous dirigeons vers des élections générales dans un an, sans qu’aucun parti ne lève la main pour dire que cela doit cesser. » Il a déclaré craindre que « quelque chose d’horrible ne se produise » si les partis ne s’engagent pas à lutter contre la désinformation. Lors du AI Safety Summit, l’impact sur les élections sera l’un des nombreux sujets abordés | Ian Forsyth/Getty Images Rae Burdon, de Reform Political Advertising (RPA), a prévenu : « Aucun ministère du gouvernement ne peut réparer les deepfakes. Ce qu’ils peuvent mettre en place, c’est une réglementation qui aura pour effet de limiter et de sanctionner leur utilisation. » Réglementer, maintenant Le Royaume-Uni ne manque pas de régulateurs, mais aucun n’a le pouvoir de mettre fin à la désinformation électorale. Les publicités politiques échappent au contrôle de l’Agence des normes de publicité (ASA), tandis que la Commission électorale ne s’intéresse qu’au financement des campagnes. Un groupe possible où les régulateurs pourraient se réunir pour lutter contre la désinformation générée par l’IA est le Forum de coopération en matière de réglementation numérique (DRCF). Mais il s’agit d’un groupe volontaire de régulateurs dépourvus de pouvoirs statutaires. Un porte-parole a déclaré qu’ils ne travaillaient pas sur la désinformation générée par l’IA et a refusé d’être interviewé. Le ministre chargé de lutter contre la désinformation est Paul Scully. En juin lettre au député travailliste Darren Jones, qui a fait part de ses craintes concernant la désinformation générée par l’IA lors des élections, Scully a souligné que la loi électorale, qui entre en vigueur en novembre, vise à « renforcer l’intégrité des élections britanniques ». Il donne de nouveaux pouvoirs à la Commission électorale pour imposer des « empreintes numériques » sur le matériel de campagne, qui indiqueront aux téléspectateurs qui a payé et produit une publicité en ligne. Louise Edwards, directrice de la réglementation et de la transformation numérique à la Commission, a déclaré que la loi constituait un « grand pas en avant », mais qu’il manquait certaines recommandations clés. Elle a souligné qu’il n’existait toujours aucun moyen de classer les dépenses numériques afin que le public puisse voir comment les partis politiques ont dépensé leurs fonds de campagne. Rae Burdon, de Reform Political Advertising (RPA), a prévenu : « Aucun ministère du gouvernement ne peut réparer les deepfakes. Ce qu’ils peuvent mettre en place, c’est une réglementation qui aura pour effet de limiter et de sanctionner leur utilisation. » | Olivier Douliery/AFP via Getty Images Cela n’a aucune importance pour les faux clips provenant de comptes non affiliés à des partis politiques, comme le clip audio de Starmer. Scully a également souligné le travail d’une unité gouvernementale appelée Counter Disinformation Unit (CDU) dans la lutte contre la désinformation en ligne. Mais le groupe a été malmené par une presse négative et les ministres ont tenté de s’en démarquer. La CDU répond aux « périodes de risque aigu de désinformation », a déclaré Scully, aux côtés de deux autres groupes gouvernementaux appelés Cellule électorale et Groupe de travail pour la défense de la démocratie. Mais ces efforts se concentrent sur les acteurs internationaux qui sapent les élections britanniques, plutôt que sur la désinformation nationale. En novembre, le Royaume-Uni organise un AI Safety Summit pour discuter des risques liés aux modèles les plus avancés, connus sous le nom de Frontier AI. L’impact sur les élections est l’un des nombreux sujets abordés. Un porte-parole du gouvernement a déclaré : « Nous reconnaissons la menace que peut représenter le contenu manipulé numériquement et prenons le problème très au sérieux. Notre priorité est toujours de protéger nos élections et de prendre des mesures pour répondre à toute menace pesant sur les processus et les institutions démocratiques du Royaume-Uni.» À vous, Big Tech ? Quoi que fassent les gouvernements, une grande partie de la solution réside dans les entreprises technologiques. En novembre, le Royaume-Uni organise un AI Safety Summit pour discuter des risques liés aux modèles les plus avancés, connus sous le nom de Frontier AI. L’impact…
Source link -57