Customize this title in frenchComment l’Europe construit des barrières d’intelligence artificielle

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

LONDRES (AP) – Les autorités du monde entier se précipitent pour élaborer des règles pour l’intelligence artificielley compris dans l’Union européenne, où le projet de loi est confronté jeudi à un moment charnière.

Une commission du Parlement européen est sur le point de voter sur les règles proposées, dans le cadre d’un effort de plusieurs années pour élaborer des garde-corps pour l’intelligence artificielle. Ces efforts sont devenus plus urgents à mesure que l’avancée rapide de ChatGPT met en évidence les avantages que la technologie émergente peut apporter – et les nouveaux périls qu’elle pose.

Voici un aperçu de la loi sur l’intelligence artificielle de l’UE :

COMMENT FONCTIONNENT LES RÈGLES ?

La loi sur l’IA, proposée pour la première fois en 2021, régira tout produit ou service qui utilise un système d’intelligence artificielle. La loi classera les systèmes d’IA selon quatre niveaux de risque, de minime à inacceptable. Les applications plus risquées seront confrontées à des exigences plus strictes, notamment être plus transparentes et utiliser des données précises. Considérez-le comme un « système de gestion des risques pour l’IA », a déclaré Johann Laux, expert à l’Oxford Internet Institute.

QUELS SONT LES RISQUES ?

L’un des principaux objectifs de l’UE est de se prémunir contre toute menace de l’IA pour la santé et la sécurité et de protéger les droits et valeurs fondamentaux.

Cela signifie que certaines utilisations de l’IA sont un non-non absolu, comme les systèmes de « notation sociale » qui jugent les gens en fonction de leur comportement ou les jouets parlants interactifs qui encouragent les comportements dangereux.

Les outils de police prédictive, qui analysent les données pour prévoir où les crimes se produiront et qui les commettra, devraient être interdits. Il en va de même pour la reconnaissance faciale à distance, à l’exception de quelques rares exceptions comme la prévention d’une menace terroriste spécifique. La technologie scanne les passants et utilise l’IA pour faire correspondre leurs visages à une base de données. Le vote de jeudi doit décider de l’étendue de l’interdiction.

L’objectif est « d’éviter une société contrôlée basée sur l’IA », a déclaré mercredi à la presse Brando Benifei, le législateur italien qui a aidé à diriger les efforts du Parlement européen en matière d’IA. « Nous pensons que ces technologies pourraient être utilisées à la place du bien aussi pour le mal, et nous considérons que les risques sont trop élevés. »

Les systèmes d’IA utilisés dans des catégories à haut risque comme l’emploi et l’éducation, qui affecteraient le cours de la vie d’une personne, sont confrontés à des exigences strictes telles que la transparence avec les utilisateurs et la mise en place de mesures d’évaluation et d’atténuation des risques.

Le bras exécutif de l’UE affirme que la plupart des systèmes d’IA, tels que les jeux vidéo ou les filtres anti-spam, entrent dans la catégorie à faible ou sans risque.

QU’EN EST-IL DE CHATGPT ?

La proposition originale de 108 pages mentionnait à peine les chatbots, exigeant simplement qu’ils soient étiquetés pour que les utilisateurs sachent qu’ils interagissent avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir l’IA à usage général comme ChatGPT, les soumettant à certaines des mêmes exigences que les systèmes à haut risque.

Un ajout clé est l’exigence de documenter en détail tout matériel protégé par le droit d’auteur utilisé pour enseigner aux systèmes d’IA comment générer du texte, des images, des vidéos ou de la musique qui ressemblent à du travail humain.. Cela permettrait aux créateurs de contenu de savoir si leurs articles de blog, livres numériques, articles scientifiques ou chansons pop ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT. Ensuite, ils pourraient décider si leur travail a été copié et demander réparation.

POURQUOI LES RÈGLES DE L’UE SONT-ELLES SI IMPORTANTES ?

L’Union européenne n’est pas un acteur important dans le développement de l’IA de pointe. Ce rôle est joué par les États-Unis et la Chine. Mais Bruxelles joue souvent un rôle précurseur avec des réglementations qui tendent à devenir de facto des standards mondiaux.

« Les Européens sont, globalement parlant, assez riches et ils sont nombreux », de sorte que les entreprises et les organisations décident souvent que la taille même du marché unique du bloc avec 450 millions de consommateurs facilite la mise en conformité plutôt que de développer différents produits pour différentes régions, Laux a dit.

Mais il ne s’agit pas seulement de sévir. En établissant des règles communes pour l’IA, Bruxelles tente également de développer le marché en instaurant la confiance des utilisateurs, a déclaré Laux.

« L’idée derrière cela est que si vous pouvez inciter les gens à faire confiance à l’IA et aux applications, ils l’utiliseront également davantage », a déclaré Laux. « Et lorsqu’ils l’utiliseront davantage, ils libéreront le potentiel économique et social de l’IA. »

ET SI VOUS ENFREINEZ LES RÈGLES ?

Les violations entraîneront des amendes pouvant atteindre 30 millions d’euros (33 millions de dollars) ou 6% du chiffre d’affaires mondial annuel d’une entreprise, ce qui, dans le cas d’entreprises technologiques comme Google et Microsoft, pourrait s’élever à des milliards.

ET APRÈS?

Il pourrait s’écouler des années avant que les règles ne prennent pleinement effet. La proposition législative phare fait face à un vote conjoint en commission du Parlement européen jeudi. Le projet de loi passe ensuite à des négociations à trois impliquant les 27 États membres du bloc, le Parlement et la Commission exécutive, où il fait face à de nouvelles querelles sur les détails. L’approbation finale est attendue d’ici la fin de l’année, ou début 2024 au plus tard, suivie d’une période de grâce pour que les entreprises et les organisations s’adaptent, souvent autour de deux ans.

Source link -57