Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa présidence espagnole du Conseil de l’UE a demandé des commentaires sur une série de points moins controversés après que les négociations sur la loi sur l’IA avec le Parlement européen se soient heurtées à un mur sur les modèles de base. La loi sur l’IA est une proposition législative visant à réglementer l’intelligence artificielle en fonction de sa capacité à nuire. Le dossier se trouve actuellement à la dernière étape du processus législatif, avec des négociations dites en trilogue entre le Conseil de l’UE, le Parlement et la Commission. Vendredi 10 novembre, Euractiv a rapporté que les représentants du Parlement européen avaient quitté une réunion technique après que la présidence espagnole, sous la pression de la France et de l’Allemagne, ait tenté de renoncer à son approche de réglementation des modèles de fondations. Les pays de l’UE avaient jusqu’à lundi pour fournir des commentaires écrits avant de discuter de la question lors d’une réunion du groupe de travail Télécom, un organe technique du Conseil, vendredi (17 novembre). Certaines options devraient être diffusées avant cette date. Euractiv comprend que la présidence négocie directement avec les pays concernés sur une éventuelle solution acceptable pour le Parlement européen. Entre-temps, cette impasse perturbe un ordre du jour déjà serré, puisque le chapitre sur les modèles de fondation devait être convenu lors de la réunion technique de jeudi. Entre-temps, les Espagnols ont également fait circuler un document de consultation contenant certaines des propositions les moins politiquement chargées du Parlement européen afin de recueillir les commentaires des États membres et d’évaluer leur flexibilité. La date limite pour soumettre des commentaires écrits sur ces sujets était fixée au mardi 14 novembre. Responsabilités tout au long de la chaîne de valeur de l’IA L’aspect le plus important du document de consultation concerne les responsabilités tout au long de la chaîne de valeur de l’IA. Il est remarquable que le document ait été partagé avant que la France et l’Allemagne ne se prononcent avec véhémence contre toute obligation concernant les modèles de fondation. L’approche de la présidence semble néanmoins être de séparer cette partie des dispositions du modèle de fondation. La proposition initiale de la Commission détaillait les obligations des distributeurs, des importateurs et des utilisateurs dans un article spécifique que le Conseil a supprimé en faveur de conditions permettant à d’autres personnes d’être soumises aux obligations d’un fournisseur. Les parlementaires ont conservé l’article original et l’ont élargi pour inclure des obligations garantissant que les fournisseurs économiques en aval qui adaptent un système d’IA à usage général comme ChatGPT peuvent répondre aux exigences de la loi sur l’IA. La présidence a noté que cette approche va au-delà de la version du Conseil, mais pourrait être importante pour garantir que les fournisseurs de systèmes d’IA à haut risque puissent se conformer aux exigences législatives. L’Espagne a proposé plusieurs options intermédiaires. La première consisterait à accepter la version du Parlement mais à introduire les références à l’interaction sur la législation d’harmonisation européenne pertinente issue du mandat du Conseil. Une autre option consisterait à supprimer l’obligation relative aux modèles de fondation, car elle s’appliquera de toute façon dans le cadre de la nouvelle approche du modèle de fondation. Enfin, la présidence a proposé de supprimer du texte des députés l’obligation pour la Commission de produire des modèles de clauses contractuelles ou la référence aux secrets d’affaires. Clauses contractuelles abusives Toujours concernant la relation entre les fournisseurs d’IA à usage général et les opérateurs économiques en aval, des dispositions sont suggérées par le Parlement pour empêcher les premiers d’imposer des conditions contractuelles déloyales aux seconds. « Même si l’intention est d’éviter les abus des grandes entreprises vers les plus petites, il semble que cet article sorte du champ d’application du règlement. Cette déclaration s’appuie également sur les premiers retours des délégations », poursuit le journal. Ici, les options consistent uniquement à accepter ou à rejeter la proposition. Analyse d’impact sur les droits fondamentaux Les députés de gauche ont proposé l’obligation pour les utilisateurs de systèmes d’IA à haut risque de mener une analyse d’impact sur les droits fondamentaux. L’Espagne a accepté une version atténuée de cette proposition, mais uniquement pour les organismes publics. Cependant, la question de savoir si les entreprises privées devraient être couvertes reste une question à résoudre, certains pays de l’UE préférant certes une portée plus large et le Parlement européen étant disposé à admettre qu’il a abandonné l’obligation pour les utilisateurs de mener en échange une consultation publique pour les groupes potentiellement concernés. Principes généraux Le mandat du Parlement européen introduit une série de principes généraux que tous les opérateurs d’IA devraient s’efforcer de suivre pour développer et utiliser des systèmes d’IA. Ces principes seraient également intégrés dans les demandes de normes techniques. « La présidence estime que les États membres pourraient avoir des inquiétudes concernant cet article car ses dispositions pourraient compromettre l’approche basée sur les risques et alourdir inutilement le processus de normalisation », peut-on lire dans le document. Madrid a également exprimé son scepticisme quant à cette mesure, arguant que certains de ces principes étaient déjà couverts dans la législation existante et qu’il n’est pas clair pourquoi ils devraient être introduits dans chaque système d’IA. Les options consistent à accepter ou à rejeter ces principes dans leur intégralité, à accepter de les inclure uniquement dans le préambule de la loi ou à les considérer comme guidant l’élaboration de codes de conduite. Par ailleurs, il est demandé aux pays de l’UE s’il est acceptable que les principes soient inclus dans les demandes de normalisation. Alphabétisation de l’IA Les députés ont introduit un libellé obligeant les institutions européennes et nationales à promouvoir des mesures visant à développer une culture suffisante de l’IA, tout en obligeant également les fournisseurs et les déployeurs d’applications d’IA à garantir que les membres de leur personnel en ont une connaissance suffisante. Là encore, outre l’acceptation ou le rejet de cette proposition, la présidence a proposé de l’insérer dans le préambule du texte, qui n’est pas juridiquement contraignant. De plus, le document se demande s’il est acceptable de déplacer ces dispositions relatives à l’IA dans d’autres parties du texte, comme celles concernant la transparence, la surveillance humaine ou les codes de conduite. [Edited by Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);
Source link -57