Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Une commission du Parlement européen a voté pour renforcer sa proposition législative alors qu’elle se dirige vers un vote en plénière en juin.
L’évolution rapide de l’intelligence artificielle, ou IA, a captivé des millions de personnes avec sa capacité à composer de la musique, à écrire des essais et à imiter parfaitement la voix humaine.
Mais il a également fait craindre sa capacité à produire de fausses nouvelles convaincantes et à manipuler l’opinion publique.
C’est pourquoi l’Union européenne s’empresse d’élaborer des règles pour la réglementer dans un projet de loi ambitieux appelé AI Act.
Jeudi, les principales commissions du Parlement européen ont donné leur feu vert au projet de loi, ouvrant la voie à un vote en plénière à la mi-juin.
Alors, en quoi consiste cette loi sur l’IA et quelles sont les implications pour les citoyens européens et les géants de la technologie ?
Quatre niveaux de risque
Le projet de loi classera les systèmes d’IA selon quatre niveaux de risque : de minime à inacceptable.
Un niveau inacceptable signifie qu’une utilisation particulière de l’IA est interdite ; par exemple, le système de crédit social en Chine où les gouvernements locaux classent les « bons » et les « mauvais » citoyens.
D’autres utilisations inacceptables incluent l’identification biométrique en temps réel dans les espaces publics, où l’IA scanne votre visage puis vous identifie automatiquement.
Les systèmes d’IA utilisés dans des catégories à haut risque comme l’emploi et l’éducation, qui affecteraient le cours de la vie d’une personne, seront également confrontés à des exigences strictes telles que la transparence et l’utilisation de données précises.
Les violations entraîneront des amendes pouvant aller jusqu’à 6% du chiffre d’affaires mondial annuel d’une entreprise.
Quels sont les principaux problèmes auxquels sont confrontés les législateurs européens ?
L’une des questions les plus importantes est de savoir comment définir ce qu’est l’IA.
« D’un côté, ils doivent réglementer certains dommages et risques, et de l’autre, ils doivent veiller à ne pas étouffer l’innovation », a déclaré Johann Laux, un expert en réglementation de l’IA, à Euronews.
« Si vous définissez l’IA trop étroitement, vous risquez de passer à côté de la réglementation de certains dommages. Si vous la définissez trop largement, vous courez le risque d’être trop inclusif et d’étouffer l’innovation ».
Et parce que la technologie se développe rapidement, une autre préoccupation fréquemment soulevée est de savoir si la loi sur l’IA sera toujours en vigueur dans quelques années.
« Beaucoup d’avocats travaillent avec des lois et des codes qui datent parfois même de plusieurs centaines d’années », a expliqué Dragos Tudorache, un eurodéputé roumain coparrainant le projet de loi.
« Et la fin, le secret de cela est que vous devez toujours essayer, lors de la rédaction de la loi, d’essayer de saisir l’essence du type de relation ou de phénomène économique ou social que vous réglementez au point où cela résisterait à l’épreuve de fois dans cinq, dans dix et 15 et 20 ans.
« C’est ce que nous avons essayé de faire, que quelle que soit l’évolution de la technologie, ce système de base de valeurs et d’obligations restera inchangé ».
Il a déclaré à Euronews que des parties du projet de loi qui pourraient évoluer avec le temps ont été insérées dans le texte qui peut être adapté avec la comitologie, le processus de mise en œuvre ou de modification des lois de l’UE par le biais de comités présidés par la Commission européenne.
Et après?
L’approbation finale est attendue d’ici la fin de l’année, ou début 2024 au plus tard, suivie d’une période de grâce pour que les entreprises et les organisations s’adaptent, souvent autour de deux ans.
Pour en savoir plus sur cette histoire, regardez notre rapport de The Cube dans le lecteur multimédia ci-dessus.