Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
New Delhi, Inde – Le gouvernement indien a demandé aux entreprises technologiques d’obtenir son accord explicite avant de lancer publiquement des modèles ou des outils d’IA générative « peu fiables » ou « sous-testés ». Il a également averti les entreprises que leurs produits d’IA ne devraient pas générer de réponses qui « menaceraient l’intégrité du processus électoral » alors que le pays se prépare à un vote national.
Les efforts du gouvernement indien pour réglementer l’intelligence artificielle représentent un retour en arrière par rapport à sa position antérieure d’approche non interventionniste lorsqu’il a informé le Parlement en avril 2023 qu’il n’envisageait aucune législation pour réglementer l’IA.
L’avis a été publié la semaine dernière par le ministère indien de l’Électronique et des Technologies de l’information (MeitY) brièvement après que Gemini, de Google, ait été confronté à une réaction de la droite pour sa réponse à une question : « Modi est-il un fasciste ?
Il a répondu que le Premier ministre indien Narendra Modi était « accusé d’avoir mis en œuvre des politiques que certains experts ont qualifiées de fascistes », citant la « répression de la dissidence et le recours à la violence contre les minorités religieuses » par son gouvernement.
Rajeev Chandrasekhar, jeune ministre des technologies de l’information, a répondu en accusant Gemini de Google de violer les lois indiennes. « ‘Désolé, ‘peu fiable’ ne dispense pas de la loi », a-t-il ajouté. Chandrashekar a affirmé que Google s’était excusé pour la réponse, affirmant que c’était le résultat d’un algorithme « peu fiable ». L’entreprise a répondu en disant qu’elle s’attaquait au problème et travaillait à améliorer le système.
En Occident, les grandes entreprises technologiques ont souvent été accusées de parti pris libéral. Ces allégations de partialité se sont répercutées sur les produits d’IA générative, notamment ChatGPT et Microsoft Copilot d’OpenAI.
Entre-temps, en Inde, l’avis du gouvernement a fait craindre aux entrepreneurs de l’IA que leur industrie naissante pourrait être étouffée par trop de réglementation. D’autres craignent qu’avec l’annonce prochaine des élections nationales, l’avis pourrait refléter une tentative du gouvernement Modi de choisir quelles applications d’IA autoriser et lesquelles interdire, lui donnant ainsi le contrôle des espaces en ligne où ces outils ont de l’influence.
« Sentiment de licence Raj »
L’avis n’est pas une législation automatiquement contraignante pour les entreprises. Cependant, le non-respect peut entraîner des poursuites en vertu de la loi indienne sur les technologies de l’information, ont déclaré des avocats à Al Jazeera. « Cet avis non contraignant semble plus une posture politique qu’une prise de décision sérieuse », a déclaré Mishi Choudhary, fondateur du Software Freedom Law Center en Inde. « Nous assisterons à un engagement beaucoup plus sérieux après les élections. Cela nous donne un aperçu de la pensée des décideurs politiques.
Pourtant, l’avis envoie déjà un signal qui pourrait s’avérer étouffant pour l’innovation, en particulier dans les startups, a déclaré Harsh Choudhry, co-fondateur de Sentra World, une société de solutions d’IA basée à Bengaluru. « Si chaque produit d’IA doit être approuvé, cela semble également une tâche impossible pour le gouvernement », a-t-il déclaré. « Ils pourraient avoir besoin d’un autre robot GenAI (IA générative) pour tester ces modèles », a-t-il ajouté en riant.
Plusieurs autres leaders du secteur de l’IA générative ont également critiqué l’avis comme un exemple de dépassement réglementaire. Martin Casado, associé commandité de la société d’investissement américaine Andreessen Horowitz, a écrit sur la plateforme de médias sociaux X que cette décision était une « parodie », était « anti-innovation » et « anti-publique ».
Bindu Reddy, PDG d’Abacus AI, a écrit qu’avec le nouvel avis, « l’Inde vient de dire au revoir à son avenir ! »
Au milieu de cette réaction négative, Chandrashekar a publié une clarification sur X, ajoutant que le gouvernement exempterait les start-ups de demander une autorisation préalable pour le déploiement d’outils d’IA générative sur « l’Internet indien » et que l’avis ne s’applique qu’aux « plateformes importantes ».
Mais un nuage d’incertitude demeure. « L’avis est rempli de termes ambigus comme « peu fiable », « non testé », [and] « Internet indien ». Le fait que plusieurs clarifications aient été nécessaires pour expliquer la portée, l’application et l’intention sont des signes révélateurs d’un travail précipité », a déclaré Mishi Choudhary. « Les ministres sont des gens compétents mais n’ont pas les moyens nécessaires pour évaluer les modèles afin de délivrer des autorisations d’exploitation. »
« Pas étonnant que [has] J’ai évoqué le sentiment de licence raj des années 80 », a-t-elle ajouté, faisant référence au système bureaucratique exigeant des permis gouvernementaux pour les activités commerciales, en vigueur jusqu’au début des années 1990, qui a étouffé la croissance économique et l’innovation en Inde.
Dans le même temps, des exemptions à l’avis réservées aux start-ups triées sur le volet pourraient entraîner des problèmes : elles aussi sont vulnérables à la production de réponses politiquement biaisées et d’hallucinations lorsque l’IA génère des résultats erronés ou fabriqués. En conséquence, l’exemption « soulève plus de questions qu’elle n’en répond », a déclaré Mishi.
Harsh Choudhry a déclaré qu’il pensait que l’intention du gouvernement derrière la réglementation était de tenir les entreprises qui monétisent les outils d’IA responsables de leurs réponses incorrectes. « Mais une approche axée sur l’autorisation n’est peut-être pas la meilleure façon d’y parvenir », a-t-il ajouté.
Les ombres du deepfake
La décision de l’Inde de réglementer le contenu de l’IA aura également des ramifications géopolitiques, a fait valoir Shruti Shreya, responsable principal du programme de réglementation des plateformes chez The Dialogue, un groupe de réflexion sur la politique technologique.
« Avec une base d’utilisateurs Internet en croissance rapide, les politiques de l’Inde peuvent créer un précédent sur la façon dont d’autres pays, en particulier dans les pays en développement, abordent la réglementation du contenu de l’IA et la gouvernance des données », a-t-elle déclaré.
Pour le gouvernement indien, traiter de la réglementation de l’IA est un exercice d’équilibre difficile, ont déclaré les analystes.
Des millions d’Indiens devraient voter lors des élections nationales qui auront probablement lieu en avril et mai. Avec l’essor des outils d’IA générative facilement disponibles et souvent gratuits, l’Inde est déjà devenue un terrain de jeu pour les médias manipulés, un scénario qui jette une ombre sur l’intégrité des élections. Les principaux partis politiques indiens continuent de déployer des deepfakes lors de leurs campagnes.
Kamesh Shekar, responsable principal du programme spécialisé dans la gouvernance des données et l’IA au sein du groupe de réflexion The Dialogue, a déclaré que le récent avis devrait également être considéré comme faisant partie des efforts en cours du gouvernement pour rédiger désormais une réglementation complète sur l’IA générative.
Plus tôt, en novembre et décembre 2023, le gouvernement indien a demandé aux grandes entreprises technologiques de supprimer les articles profondément contrefaits dans les 24 heures suivant une plainte, d’étiqueter les médias manipulés et de déployer des efforts proactifs pour lutter contre la désinformation – bien qu’il n’ait mentionné aucune sanction explicite pour ne respectant pas la directive.
Mais Shekar a également déclaré qu’une politique selon laquelle les entreprises doivent demander l’approbation du gouvernement avant de lancer un produit entraverait l’innovation. « Le gouvernement pourrait envisager de constituer un bac à sable – un environnement de test en direct dans lequel les solutions d’IA et les entités participantes peuvent tester le produit sans déploiement à grande échelle pour déterminer sa fiabilité », a-t-il déclaré.
Cependant, tous les experts ne sont pas d’accord avec les critiques adressées au gouvernement indien.
Alors que la technologie de l’IA continue d’évoluer à un rythme rapide, il est souvent difficile pour les gouvernements de suivre le rythme. Dans le même temps, les gouvernements doivent intervenir pour réglementer, a déclaré Hafiz Malik, professeur de génie informatique à l’Université du Michigan, spécialisé dans la détection des deepfakes. Il serait insensé de laisser les entreprises se réguler elles-mêmes, a-t-il déclaré, ajoutant que l’avis du gouvernement indien était un pas dans la bonne direction.
« Les réglementations doivent être mises en place par les gouvernements », a-t-il déclaré, « mais elles ne doivent pas se faire au détriment de l’innovation ».
Mais en fin de compte, a ajouté Malik, ce qu’il faut, c’est une plus grande sensibilisation du public.
« Voir quelque chose et y croire est désormais hors de question », a déclaré Malik. « Si le public n’en est pas conscient, le problème du deepfake ne pourra pas être résolu. La sensibilisation est le seul outil permettant de résoudre un problème très complexe.