Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les pays de l’UE se sont mis d’accord aujourd’hui sur les détails techniques de la loi sur l’IA, la première tentative mondiale de réglementer la technologie selon une approche basée sur les risques, suite à un accord politique en décembre. Il faut maintenant l’approbation des législateurs européens avant que les règles n’entrent en vigueur.
Jusqu’à la fin, la question de savoir si un accord serait conclu aujourd’hui est restée incertaine.
La France, en particulier, s’est montrée sceptique quant à la réglementation des modèles dits de fondation tels que ChatGPT ; le pays s’est opposé à toute obligation contraignante pour les fournisseurs de tels modèles. Elle avait également des réserves sur les exigences de transparence et les secrets commerciaux, mais lors de la réunion des ambassadeurs de l’UE d’aujourd’hui, le texte a été approuvé à l’unanimité.
Chatbots
L’approche de l’IA basée sur les risques de la Commission européenne a été généralement accueillie positivement en 2021, lorsque le règlement a été présenté pour la première fois, mais a été mise sous pression fin 2022, lorsque OpenAI a lancé ChatGPT et a déclenché un débat mondial sur les chatbots.
Le Parlement européen a ajouté un nouvel article comportant une longue liste d’obligations visant à garantir que ces systèmes respectent les droits fondamentaux, car le plan de l’exécutif européen ne comprenait aucune disposition relative aux modèles de fondation.
En réponse, l’Allemagne, la France et l’Italie ont présenté une contre-proposition favorisant « une autorégulation obligatoire au moyen de codes de conduite » pour les modèles de fondations.
Suite à l’approbation d’aujourd’hui, le Parlement européen votera très probablement dans ses commissions du marché intérieur et des libertés civiles à la mi-février, et en plénière en mars ou avril. Après cela, la loi devrait entrer en vigueur plus tard cette année et prévoit une période de mise en œuvre pouvant aller jusqu’à 36 mois. Les exigences relatives aux modèles d’IA commenceront à s’appliquer au bout d’un an déjà.
La loi divise les systèmes d’IA en quatre catégories principales en fonction du risque potentiel qu’ils représentent pour la société.
Les systèmes considérés comme à haut risque seront soumis à des règles strictes qui s’appliqueront avant leur entrée sur le marché de l’UE. Une fois disponibles, ils seront sous la surveillance des autorités nationales, soutenues par le bureau AI au sein de la Commission européenne.
Ceux qui relèvent de la catégorie à risque minimal seront exemptés de règles supplémentaires, tandis que ceux qualifiés de risque limité devront respecter des obligations de transparence de base.