Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Trouver un équilibre entre la protection des droits fondamentaux et la promotion de l’innovation, en élaborant des lois capables de suivre le rythme de l’innovation en matière d’intelligence artificielle (IA). Ce sont deux des défis rencontrés par les députés européens Dragoş Tudorache et Brando Benifei, co-dirigeants du EU AI Act.
Le 13 mars, le Parlement européen a approuvé le Loi sur l’IA avec une majorité écrasante : 523 voix pour, 46 contre et 49 abstentions.
Le règlement, qui devrait entrer en vigueur en mai 2024, constitue déjà une étape historique. Bien que l’IA générative fasse déjà partie de nos vies et fasse la une des médias internationaux, l’Union européenne (UE) est la première institution à approuver un ensemble de lois visant à réglementer les systèmes d’IA, tout en protégeant les droits fondamentaux des personnes.
Pour mieux comprendre cette réglementation révolutionnaire, cet épisode spécial d’Euronews Tech Talks vous propose l’expérience des deux législateurs co-dirigeant le dossier de l’IA au Parlement de Strasbourg : Dragoş Tudorache et Brando Benifei. Le premier a travaillé comme ministre de l’Intérieur de la Roumanie et représente le groupe libéral Renews Europe. Ce dernier siège parmi les socialistes et a été l’un des plus jeunes députés européens italiens jamais élus.
Comment ont-ils travaillé ensemble ? À quels défis ont-ils été confrontés ?
La genèse de la loi européenne sur l’IA
L’histoire de la loi européenne sur l’IA commence bien avant le lancement de l’outil populaire ChatGPT en 2022. « Avant 2019, la Commission européenne disposait d’un groupe d’experts de haut niveau sur l’IA, ses applications et ses risques potentiels », explique Tudorache. « Puis, en 2019, la présidente von der Leyen a annoncé qu’il y aurait une proposition législative sur l’IA. En 2020, il y a eu le lancement d’un comité spécial et en 2021 nous avons commencé à dévoiler le concept d’IA », ajoute-t-il.
Dès la première étape des négociations, le principal défi était clair : faire en sorte que le développement rapide et imprévisible des technologies de l’IA ne dépasse pas les réglementations. Pour faire face à ce problème, les législateurs ont élaboré une stratégie : « Nous devions nous assurer que les obligations étaient technologiquement neutres : si vous définissez des obligations de transparence, celles-ci resteront pertinentes, quelle que soit la complexité des algorithmes ». a souligné l’eurodéputé libéral. A cette méthodologie s’ajoute une technique juridique : « Quels que soient les nouveaux usages avec de nouveaux risques qui pourraient survenir, ils peuvent toujours être ajoutés à l’annexe trois, qui est la liste des applications à haut risque de l’intelligence artificielle, que nous avons délibérément laissée. ouvert », ajoute Tudorache.
Plus précisément, la loi sur l’IA suit une approche basée sur les risques : plus l’application de l’IA est risquée, plus elle est soumise à un examen minutieux.
« Nous avons limité l’utilisation de caméras biométriques en temps réel dans les espaces publics à la poursuite de suspects de crimes très importants, mais nous avons également interdit la reconnaissance émotionnelle sur les lieux de travail et dans les écoles », ajoute l’eurodéputé italien.
Mais comment la protection des droits de l’homme peut-elle ne pas entraver le développement technologique ?
« Le but de cette législation n’est pas d’étouffer l’innovation, mais plutôt d’instaurer la confiance. Notre modèle, où les consommateurs sont fortement protégés et où les droits de l’homme sont centraux, ne sera pas entravé par cette technologie disruptive. Au lieu de cela, il sera intégré pour développer notre modèle d’IA », explique Brando.