Customize this title in frenchLa présidence espagnole envisage des zones d’atterrissage pour l’application de la loi dans les règles de l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa présidence espagnole du Conseil de l’UE a demandé aux États membres de faire preuve de flexibilité dans le domaine sensible de l’application de la loi, à l’approche d’une réunion politique cruciale pour la loi sur l’IA. La loi sur l’IA est un projet de loi phare visant à réglementer l’intelligence artificielle en fonction de sa capacité à causer des dommages, actuellement dans la dernière phase du processus législatif, la Commission européenne, le Conseil et le Parlement négociant les dispositions finales dans le cadre de ce que l’on appelle des trilogues. Les décideurs politiques de l’UE s’efforcent de trouver un accord final lors du trilogue du 6 décembre. Avant cette nomination cruciale, la présidence espagnole, qui négocie au nom des gouvernements européens, aura besoin d’un mandat de négociation révisé. Vendredi 24 novembre, la présidence a fait circuler la première moitié du mandat de négociation, demandant de la flexibilité et indiquant d’éventuelles zones d’atterrissage dans le domaine de l’application de la loi. Mercredi, le mandat doit atterrir sur le bureau du Comité des représentants permanents (COREPER). La seconde moitié du mandat abordera les modèles de fondation, la gouvernance, l’accès au code source, le régime de sanctions, l’entrée en vigueur du règlement et le droit dérivé. Ce sujet sera discuté au niveau du COREPER vendredi 1er décembre. Interdictions Les députés ont considérablement élargi la liste des pratiques interdites – les applications d’IA considérées comme comportant un niveau de risque inacceptable. La présidence suggère d’accepter l’interdiction de la capture non ciblée d’images faciales, de la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, de la catégorisation biométrique pour déduire des données sensibles telles que l’orientation sexuelle et les croyances religieuses, et de la police prédictive des individus. Par ailleurs, « dans un esprit de compromis », la présidence propose de mettre les interdictions du Parlement européen qui n’ont pas été acceptées dans la liste des cas d’usage à haut risque, à savoir toutes les autres applications de catégorisation biométrique et de reconnaissance des émotions. Concernant l’identification biométrique à distance, les parlementaires ont convenu d’abandonner l’interdiction totale de l’utilisation en temps réel en échange d’une limitation de son utilisation exceptionnelle et de davantage de garanties. Pour la présidence, l’utilisation ex post de cette technologie est considérée comme à haut risque. Exceptions en matière d’application de la loi Le mandat du Conseil comprend plusieurs exclusions permettant aux forces de l’ordre d’utiliser des outils d’IA. La présidence constate qu’elle a réussi à « les conserver presque tous ». Il s’agit notamment de rendre le texte plus flexible pour les forces de police concernant l’obligation de surveillance humaine, la déclaration des systèmes à risque, la surveillance post-commercialisation et les mesures de confidentialité pour éviter de divulguer des données opérationnelles sensibles. La présidence souhaite également que les forces de l’ordre puissent utiliser des logiciels de reconnaissance des émotions et de catégorisation biométrique sans en informer les sujets. Le Parlement européen a obtenu que les forces de police enregistrent les systèmes à haut risque dans la base de données de l’UE, mais dans une section non publique. La date limite pour que les systèmes informatiques à grande échelle soient conformes aux obligations de la loi sur l’IA a été fixée à 2030. Exception relative à la sécurité nationale La France a fait pression en faveur d’une large exemption relative à la sécurité nationale dans la loi sur l’IA. Dans le même temps, la présidence a noté que le Parlement européen n’a fait preuve d’aucune flexibilité en acceptant la formulation du mandat du Conseil. L’Espagne propose de diviser cette disposition en deux paragraphes. La première stipule que le règlement ne s’applique pas aux domaines qui ne relèvent pas du droit de l’UE et ne devrait en aucun cas affecter les compétences des États membres dans le domaine de la sécurité nationale ou de toute entité chargée de tâches dans ce domaine. Deuxièmement, le texte précise que la loi sur l’IA ne s’appliquerait pas aux systèmes mis sur le marché ou mis en service pour des activités liées à la défense et au militaire. Analyse d’impact sur les droits fondamentaux Les députés de gauche à centre ont présenté l’évaluation d’impact sur les droits fondamentaux comme une nouvelle obligation qui devrait être menée par les utilisateurs de systèmes à haut risque avant leur déploiement. Pour la présidence, il est « absolument nécessaire » de l’inclure pour parvenir à un accord avec le Parlement. Un point de friction sur ce sujet a été la portée, les parlementaires demandant à tous les utilisateurs et les pays de l’UE faisant pression pour limiter la fourniture aux organismes publics. Le compromis consistait à couvrir les organismes publics et uniquement les acteurs privés fournissant des services d’intérêt général. En outre, l’analyse d’impact sur les droits fondamentaux devrait couvrir des aspects qui ne sont pas déjà couverts par d’autres obligations juridiques afin d’éviter les chevauchements. Concernant les obligations en matière de gestion des risques, de gouvernance des données et de transparence, les utilisateurs doivent uniquement vérifier que le fournisseur de système à haut risque les a respectées. Pour la présidence, l’obligation de mener une consultation de six semaines devrait être supprimée, même pour les organismes publics, et remplacée par une simple notification à l’autorité nationale compétente. Tests en conditions réelles Un point de discorde dans les négociations a été la possibilité introduite par le Conseil de tester les systèmes d’IA à haut risque en dehors des bacs à sable réglementaires. Selon la note de la présidence, certaines garanties ont été incluses pour rendre la mesure acceptable au Parlement. Le texte indique que les personnes soumises au test doivent donner leur consentement éclairé et que, lorsque dans le cas d’activités policières, il n’est pas possible de demander le consentement, le test et son résultat ne peuvent pas affecter négativement les personnes concernées. Dérogation à l’évaluation de la conformité Le Conseil a introduit une procédure d’urgence qui permet aux services répressifs de déployer en cas d’urgence un outil d’IA à haut risque qui n’a pas encore passé avec succès la procédure d’évaluation de la conformité. Les députés souhaitent que ce processus soit soumis à une autorisation judiciaire, un point que la présidence juge inacceptable pour les pays de l’UE. En guise de compromis, les Espagnols ont proposé de réintroduire le mécanisme, permettant à la Commission de réexaminer la décision. En savoir plus avec EURACTIV Les réserves des pays de l’UE persistent sur la loi sur la cyber-solidaritéLa proposition de la Commission relative à une loi sur la cyber-solidarité traîne au Conseil des ministres de l’UE, où le peu d’enthousiasme se reflète dans la lenteur des progrès au niveau technique, même s’il n’y a pas d’obstacle politique majeur. !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57