Customize this title in frenchIA : l’Europe en tête des efforts mondiaux pour réglementer les nouvelles technologies

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words LONDRES – Les législateurs européens ont approuvé mercredi le premier ensemble de règles complètes au monde pour l’intelligence artificielle, éliminant un obstacle majeur alors que les autorités du monde entier se précipitent pour freiner l’IA.Le vote du Parlement européen est l’une des dernières étapes avant que les règles ne deviennent loi, ce qui pourrait servir de modèle pour d’autres endroits travaillant sur des réglementations similaires. Pour mémoire : 03h27 14 juin 2023Une version précédente de cette histoire a mal orthographié le nom de Kris Shrishak en tant que Shashak. Un effort de plusieurs années de Bruxelles pour élaborer des garde-fous pour l’IA est devenu plus urgent, car les progrès rapides des chatbots tels que ChatGPT montrent les avantages que la technologie émergente peut apporter – et les nouveaux périls qu’elle pose.Les législateurs du Parlement européen doivent voter sur le projet de loi, qui comprend des amendements controversés sur la reconnaissance faciale.Voici un aperçu de la loi sur l’intelligence artificielle de l’UE.Comment fonctionnent les règles ? La mesure, proposée pour la première fois en 2021, régira tout produit ou service utilisant un système d’intelligence artificielle. La loi classera les systèmes d’IA selon quatre niveaux de risque, de minime à inacceptable. Les applications plus risquées, telles que l’embauche ou la technologie destinée aux enfants, seront confrontées à des exigences plus strictes, notamment en étant plus transparentes et en utilisant des données précises.Les violations entraîneront des amendes pouvant atteindre 33 millions de dollars ou 6% du chiffre d’affaires mondial annuel d’une entreprise, ce qui, dans le cas d’entreprises technologiques telles que Google et Microsoft, pourrait s’élever à des milliards. Il appartiendra aux 27 États membres de l’Union européenne de faire respecter les règles.Quels sont les risques ? L’un des principaux objectifs de l’UE est de se prémunir contre toute menace de l’IA pour la santé et la sécurité et de protéger les droits et valeurs fondamentaux. Cela signifie que certaines utilisations de l’IA sont un non-non absolu, comme les systèmes de « notation sociale » qui jugent les gens en fonction de leur comportement. Est également interdite l’IA qui exploite les personnes vulnérables, y compris les enfants, ou utilise des manipulations subliminales pouvant entraîner des dommages – par exemple, un jouet interactif parlant qui encourage les comportements dangereux.Les outils de police prédictive, qui analysent les données pour prévoir qui commettra des crimes, sont également sortis. Les législateurs ont renforcé la proposition initiale de la Commission européenne, la branche exécutive de l’UE, en élargissant l’interdiction de la reconnaissance faciale à distance et de l’identification biométrique en public. La technologie scanne les passants et utilise l’IA pour faire correspondre leurs visages ou d’autres traits physiques à une base de données. Mais il fait face à un défi de dernière minute après qu’un parti de centre-droit a ajouté un amendement autorisant des exceptions en matière d’application de la loi telles que la recherche d’enfants disparus, l’identification de suspects impliqués dans des crimes graves ou la prévention de menaces terroristes.« Nous ne voulons pas de surveillance de masse, nous ne voulons pas de notation sociale, nous ne voulons pas de police prédictive dans l’Union européenne, point final. C’est ce que fait la Chine, pas nous », a déclaré mardi Dragos Tudorache, membre roumain du Parlement européen qui codirige ses travaux sur la loi sur l’IA.Les systèmes d’IA utilisés dans des catégories telles que l’emploi et l’éducation, qui affecteraient le cours de la vie d’une personne, sont confrontés à des exigences strictes, telles que la transparence avec les utilisateurs et la prise de mesures pour évaluer et réduire les risques de biais des algorithmes.La plupart des systèmes d’IA, tels que les jeux vidéo ou les filtres anti-spam, entrent dans la catégorie à faible ou sans risque, selon la commission. Qu’en est-il de ChatGPT ? La mesure originale mentionnait à peine les chatbots, principalement en exigeant qu’ils soient étiquetés afin que les utilisateurs sachent qu’ils interagissent avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir l’IA à usage général, telle que ChatGPT, après qu’elle ait explosé en popularité, soumettant cette technologie à certaines des mêmes exigences que les systèmes à haut risque.Un ajout clé est l’exigence de documenter en détail tout matériel protégé par le droit d’auteur utilisé pour enseigner aux systèmes d’IA comment générer du texte, des images, des vidéos et de la musique qui ressemblent au travail humain. Cela permettrait aux créateurs de contenu de savoir si leurs articles de blog, livres numériques, articles scientifiques ou chansons ont été utilisés pour former des algorithmes qui alimentent des systèmes tels que ChatGPT. Ensuite, ils pourraient décider si leur travail a été copié et demander réparation. Pourquoi les règles de l’UE sont-elles si importantes? L’Union européenne n’est pas un acteur important dans le développement de l’IA de pointe. Ce rôle est joué par les États-Unis et la Chine. Mais Bruxelles joue souvent un rôle de précurseur avec des réglementations qui tendent à devenir de facto des normes mondiales et est devenue un pionnier dans les efforts visant à cibler le pouvoir des grandes entreprises technologiques. Selon les experts, la taille même du marché unique de l’UE, avec 450 millions de consommateurs, rend plus efficace pour les entreprises de se conformer que de développer différents produits pour différentes régions. Mais ce n’est pas qu’une répression. En établissant des règles communes pour l’IA, Bruxelles tente également de développer le marché en instaurant la confiance des utilisateurs. « Le fait qu’il s’agisse d’une réglementation qui peut être appliquée et que les entreprises seront tenues pour responsables est significatif », car d’autres endroits comme les États-Unis, Singapour et la Grande-Bretagne ont simplement offert « des conseils et des recommandations », a déclaré Kris Shrishak, technologue et chercheur principal au Conseil irlandais pour les libertés civiles. « D’autres pays pourraient vouloir adapter et copier » les règles de l’UE, a-t-il déclaré. D’autres jouent au rattrapage. La Grande-Bretagne, qui a quitté l’UE en 2020, se bat pour un poste de direction de l’IA. Le Premier ministre Rishi Sunak prévoit d’organiser cet automne un sommet mondial sur la sécurité de l’IA. »Je veux faire du Royaume-Uni non seulement le foyer intellectuel, mais aussi le foyer géographique de la réglementation mondiale sur la sécurité de l’IA », a déclaré Sunak lors d’une conférence technique cette semaine. Le sommet de la Grande-Bretagne réunira des personnes « du milieu universitaire, des entreprises et des gouvernements du monde entier » pour travailler sur « un cadre multilatéral », a-t-il déclaré.Et après? Il pourrait s’écouler des années avant que les règles ne prennent pleinement effet. Le vote sera suivi de négociations à trois impliquant les pays membres, le Parlement européen et la Commission européenne, et la législation devra peut-être faire face à d’autres changements alors que ces organes tentent de s’entendre sur le libellé. L’approbation finale est attendue d’ici la fin de cette année, suivie d’une période de grâce pour que les entreprises et les organisations s’adaptent, souvent autour de deux ans. Pour combler le vide avant que la législation n’entre en vigueur, l’Europe et les États-Unis élaborent un code de conduite volontaire que les responsables ont promis fin mai serait rédigé dans quelques semaines et pourrait être étendu à d’autres «pays partageant les mêmes idées».

Source link -57