Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Élections Lok Sabha 2024: À la veille des élections générales qui auront lieu cet été, le ministère indien de l’Électronique et des Technologies de l’information a déclaré aux entreprises propriétaires de plateformes d’intelligence artificielle que leurs services ne doivent pas générer de réponses qui « menacent l’intégrité du processus électoral ».
L’avis a été envoyé aux sociétés propriétaires de plateformes d’intelligence artificielle générative comme Google et OpenAI, ainsi qu’à celles qui gèrent des plateformes similaires.
Les plates-formes qui proposent actuellement des systèmes d’IA ou des grands modèles linguistiques (LLM) « sous-testés/peu fiables » aux utilisateurs indiens doivent également étiqueter l’éventuelle « faillibilité ou manque de fiabilité du résultat généré ».
La plateforme d’IA de Google, Gemini, a récemment été critiquée pour les réponses générées par la plateforme à une question concernant le Premier ministre Narendra Modi.
Le ministre d’État chargé de l’Électronique et de l’Informatique, Rajeev Chandrasekhar, a déclaré que l’avis est un « signal pour la future action législative que l’Inde entreprendra pour maîtriser les plates-formes d’IA générative ».
Regardez aussi | Les deepfakes de l’IA constituent une menace pour les élections dans le monde entier
Chandrasekhar, qui a été nommé candidat du BJP Lok Sabha pour les élections générales de 2024 dans la ville de Thiruvananthapuram, dans le sud de l’Inde, a déclaré que le gouvernement pourrait demander une démonstration de ses plateformes d’IA, y compris l’architecture de consentement qu’elles suivent.
Les entreprises ont été invitées à soumettre un rapport sur les mesures prises dans un délai de 15 jours.
« L’utilisation de modèles d’intelligence artificielle / LLM / IA générative sous-testés / peu fiables, de logiciels ou d’algorithmes et leur disponibilité pour les utilisateurs sur Internet indien doivent se faire avec l’autorisation explicite du gouvernement. de l’Inde et être déployé uniquement après avoir étiqueté de manière appropriée la faillibilité ou le manque de fiabilité possible et inhérente du résultat généré. En outre, le mécanisme de « popup de consentement » peut être utilisé pour informer explicitement les utilisateurs de la faillibilité ou du manque de fiabilité possible et inhérente du résultat généré, » dit l’avis.
Le gouvernement a également demandé aux entreprises d’étiqueter les réponses générées par l’IA avec un identifiant unique et permanent afin que le créateur ou le premier auteur de toute désinformation ou d’un deepfake puisse être identifié.
« Lorsqu’un intermédiaire, par l’intermédiaire de son logiciel ou de toute autre ressource informatique, permet ou facilite la création, la génération ou la modification synthétique d’un texte, d’une information audio, visuelle ou audiovisuelle, de telle manière que cette information puisse être utilisée potentiellement à des fins de désinformation ou de deepfake… est étiqueté ou intégré avec des métadonnées ou un identifiant uniques et permanents… (pour) identifier l’utilisateur du logiciel », ajoute l’avis.
« Tous les intermédiaires ou plateformes doivent s’assurer que leurs ressources informatiques ne permettent aucun biais ou discrimination ou ne menacent l’intégrité du processus électoral, y compris via l’utilisation de modèle(s) d’intelligence artificielle/LLM/IA générative, logiciel(s) ou algorithme(s) s), » dit-il.