Customize this title in french L’Europe a fait un grand pas en avant dans la réglementation de l’IA. Le reste du monde doit maintenant intensifier ses efforts | David Evan Harris

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

TLes lois de l’Union européenne sur l’IA – dont les dirigeants ont finalement annoncé qu’elles avaient été adoptées samedi vers minuit – sont en passe d’éclipser complètement la déclaration britannique de Bletchley sur l’intelligence artificielle, vieille de six semaines. Le texte de l’accord sur une série de lois globales pour réglementer l’IA n’est pas finalisé, et de nombreux problèmes se cachent dans les détails, mais son arrivée imminente signale un changement radical dans la manière dont la démocratie peut orienter l’IA vers l’intérêt public.

La déclaration de Bletchley a été une grande réussite, en particulier parce qu’elle a amené des pays comme la Chine, l’Arabie saoudite et les Émirats arabes unis à s’entendre sur une déclaration formelle sur la réglementation de l’IA. Le problème est qu’il ne s’agissait que de cela : une déclaration, sans pouvoir juridique ni mécanisme d’application. Maintenant que l’UE prend des mesures pour imposer des exigences juridiques strictes aux développeurs d’intelligence artificielle, c’est aux autres pays d’intensifier leurs efforts et de compléter le puzzle.

Le dernier obstacle que les négociateurs ont surmonté ce week-end concernait la question de savoir quelles utilisations de l’IA seraient purement et simplement interdites. Les pratiques interdites incluent la « manipulation cognitivo-comportementale » – un terme large désignant les technologies qui interprètent les comportements et les préférences dans le but d’influencer nos décisions. Il s’agit également de « l’extraction non ciblée d’images faciales sur Internet ou d’images de vidéosurveillance », une pratique déjà utilisée par certaines entreprises qui vendent des bases de données utilisées à des fins de surveillance ; « la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement », qui pourrait être utilisée par les entreprises pour discipliner, classer ou microgérer les employés ; le « score social », un outil de surveillance dystopique utilisé en Chine pour évaluer les individus sur leurs activités quotidiennes et leur attribuer (ou leur refuser) un « crédit social » ; la « catégorisation biométrique », une pratique dans laquelle des caractéristiques telles que le teint ou la structure du visage sont utilisées pour tirer des conclusions sur le sexe, l’orientation sexuelle ou même la probabilité de commettre un crime ; et « quelques cas de police prédictive pour les individus », dont il a déjà été démontré qu’ils avaient des effets discriminatoires sur le plan racial.

Mais ne poussez pas encore un soupir de soulagement. De la même manière que la crise climatique est un problème mondial qui ne peut être résolu que si tous les pays réduisent leurs émissions, l’IA est de nature mondiale et ne peut être maîtrisée que par de nombreuses nations travaillant ensemble. De puissants systèmes « d’IA à usage général » (GPAI), tels que celui qui sous-tend ChatGPT, peuvent produire des campagnes personnalisées de désinformation et de manipulation, des images intimes non consensuelles (NCII, parfois appelées deepfake pornographie) et même des conceptions d’armes biologiques.

Si une partie du monde les réglemente, puis qu’une autre publie des versions « open source » non sécurisées de ces outils que les acteurs malveillants peuvent utiliser à volonté, le monde entier peut encore en subir les conséquences. Ces mauvais acteurs pourraient inclure l’agence de renseignement militaire russe, le GRU, ou des mercenaires numériques (fermes de trolls à louer) qui n’ont peut-être pas les fonds ou la technologie nécessaires pour fabriquer leurs propres modèles de classe mondiale, mais qui pourraient mettre la main sur de puissants outils d’IA construits sans ces garanties et les utiliser pour tenter de manipuler les élections dans le monde entier.

La loi européenne sur l’IA prévue n’est malheureusement pas parfaite. Bien qu’elle impose des réglementations louables et strictes à la GPAI, y compris aux systèmes « open source », des lacunes subsistent. Si des outils d’IA tels que des applications de « déshabillage » sont utilisés pour créer NCII, il semble que la responsabilité pourrait incomber uniquement à l’utilisateur individuel créant ce contenu, et non au développeur du système d’IA qui l’a créé, selon un responsable de la Commission européenne avec qui j’ai parlé. Je préférerais qu’il soit interdit aux développeurs de distribuer des outils capables de causer de tels dommages potentiellement irréparables, surtout lorsque les enfants peuvent être à la fois auteurs et victimes.

Une autre préoccupation est que la loi européenne sur l’IA n’entrera pas pleinement en vigueur avant au moins 2026. Certaines parties de celle-ci entreront en vigueur plus tôt et elle est conçue pour être « à l’épreuve du temps », mais la technologie de l’IA s’améliore si rapidement qu’il existe un Il est fort probable que la technologie dépasse la législation. Ce risque est encore plus grand si l’UE légifère seule sur l’IA.

La déclaration de Bletchley, issue du premier sommet sur la sécurité de l’IA, constituait un élément important d’une série d’efforts parallèles menés au sein du G7, du G20, de l’ONU et de l’Organisation de coopération et de développement économiques. Des sommets de suivi sur la sécurité de l’IA sont prévus en Corée du Sud et en France en 2024.

Voici les réglementations contraignantes les plus importantes que ces sommets et processus de gouvernance parallèles doivent mettre en place. 1) Affirmer l’interdiction des utilisations décrites ci-dessus. 2) Réglementer fermement les systèmes d’IA à haut risque, y compris le GPAI, en exigeant des évaluations, des tests et des mesures d’atténuation approfondies des risques. 3) Exiger des entreprises qu’elles sécurisent leurs systèmes GPAI à haut risque et ne les publient pas sous des licences « open source », à moins qu’ils ne soient déterminés par des experts indépendants comme étant sûrs. 4) Imposer clairement la responsabilité aux développeurs de systèmes GPAI ainsi qu’à leurs déployeurs pour les dommages qu’ils causent. 5) Exiger que le contenu généré par l’IA soit « filigrané » de manière à ce qu’il puisse être facilement détecté par les consommateurs profanes ainsi que par les experts. 6) Respectez les droits d’auteur des créateurs tels que les auteurs et les artistes lors de la formation des systèmes d’IA. Et enfin, 7) Taxer les entreprises d’IA et utiliser les revenus pour protéger la société de tout préjudice causé par l’IA, de la désinformation aux pertes d’emplois.

Veiller à ce que l’IA soit développée de manière à servir l’intérêt public est une tâche gigantesque qui nécessitera la participation des citoyens et des gouvernements du monde entier. Il est désormais temps pour chacun, partout dans le monde, de s’informer sur les risques et les avantages de l’IA, et d’exiger que vos élus prennent ses menaces au sérieux. L’UE a pris un bon départ ; le reste du monde doit désormais adopter une législation contraignante pour que l’IA soit à votre service, vous et votre communauté.

  • David Evan Harris est chercheur public à l’UC Berkeley, chercheur principal au Center for International Governance Innovation, chercheur principal à l’International Computer Science Institute et chercheur invité à l’Integrity Institute.

Source link -57