La fine ligne de la loi AI sur les infrastructures critiques


Alors que les décideurs politiques de l’UE progressent dans la définition d’un futur règlement sur l’intelligence artificielle, la question de savoir dans quelle mesure les modèles d’IA utilisés pour gérer les infrastructures critiques devraient être couverts par des exigences strictes reste ouverte.

La loi sur l’IA atteint une étape critique du processus législatif, le Parlement européen devant parvenir à une position commune dans les semaines à venir. La proposition législative est la première tentative au monde de mettre en place un ensemble complet de règles pour l’intelligence artificielle en fonction de ses risques potentiels.

Un aspect critique du projet de loi est la catégorie des modèles d’IA qui peuvent causer des dommages importants, qui doivent respecter des obligations plus strictes en matière de qualité et de gestion des risques. Cependant, concernant les infrastructures critiques, la manière d’évaluer les risques reste un sujet de débat.

L’IA dans les infrastructures critiques

L’intelligence artificielle est de plus en plus utilisée dans la gestion des infrastructures critiques, notamment pour le développement de projets, la maintenance et l’optimisation des performances.

Un exemple du côté de la construction est Sweco Pays-Bas, une société de conseil en ingénierie chargée d’étendre le système de métro léger de Bybanen, la deuxième plus grande ville de Norvège, en tenant compte des lignes de tramway existantes, des routes adjacentes, des pistes cyclables, des zones piétonnes et des espaces publics environnants.

Pour rassembler ces différents facteurs, Sweco NL a utilisé un modèle de jumeau numérique pour visualiser son projet et comprendre comment les changements de conception auraient un impact sur le calendrier, les coûts et l’environnement. L’entreprise estime ainsi avoir réduit les erreurs de construction de 25 %.

Un autre domaine d’application de cette technologie est celui des barrages. En 2017, HDR, une entreprise de construction américaine, a appliqué l’apprentissage automatique au modèle de jumeau numérique d’un barrage pour simuler la manière dont l’infrastructure serait affectée par des changements tels que le déplacement naturel et l’érosion du sol environnant au fil du temps.

Le modèle a permis aux exploitants de barrages de détecter des anomalies telles que des fissures avec une précision de deux centimètres, de les différencier de la croissance d’algues inoffensives et de prendre des mesures correctives avant qu’elles ne se transforment en problèmes plus importants.

Approche réglementaire

La proposition initiale de loi sur l’IA notait qu' »il convient de classer comme à haut risque les systèmes d’IA destinés à être utilisés comme composants de sécurité dans la gestion et l’exploitation du trafic routier et l’approvisionnement en eau, gaz, chauffage et électricité ».

Au Conseil des ministres de l’UE, les États membres ont précisé que le concept de composante de sécurité devait être distingué par le système de gestion lui-même. En d’autres termes, dans un barrage, le mécanisme d’ouverture des volts est le système de gestion, tandis que la technologie qui surveille la pression de l’eau est un élément de sécurité.

Au Parlement européen, les eurodéputés à la tête des travaux sur la loi IA ont proposé de différencier la gestion du trafic routier, ferroviaire et aérien, des réseaux d’approvisionnement comme l’eau, le gaz, le chauffage, l’énergie et l’électricité, dans des amendements de compromis obtenus par EURACTIV.

Alors que le Conseil a inclus les infrastructures numériques telles que les services cloud et les centres de données dans la liste des cas d’utilisation à haut risque, étant donné que l’intention est d’empêcher « des perturbations sensibles dans le déroulement normal des activités sociales et économiques », les législateurs de l’UE ne l’ont pas fait jusqu’à présent. .

L’ajout à la liste à haut risque a provoqué une anxiété importante dans l’industrie des télécommunications, qui utilise l’IA pour gérer la capacité du réseau, planifier les mises à niveau, détecter les fraudes et améliorer l’efficacité énergétique. La question est de savoir si le dysfonctionnement de l’un de ces algorithmes pourrait faire tomber tout le système.

Où tracer une ligne

Par exemple, si un opérateur de télécommunications calcule mal les pics de trafic dans différentes zones de son réseau, cela entraînerait-il des pannes d’Internet ? Un représentant des opérateurs de télécommunications a déclaré à EURACTIV qu’ils n’étaient au courant d’aucune situation dans laquelle cela s’est produit, qualifiant le problème de « hautement hypothétique ».

Plus généralement, les exploitants d’infrastructures critiques craignent qu’en élargissant trop la catégorie à haut risque du règlement sur l’intelligence artificielle, ils ne soient privés d’outils utiles qui contribuent à rendre leurs systèmes plus efficaces et plus sûrs.

Par exemple, les États membres ont exclu les outils de cybersécurité basés sur l’IA de la définition de la composante de sécurité.

L’analyse des logiciels malveillants antivirus est basée sur des modèles prédictifs et l’apprentissage automatique, ce qui signifie que les fournisseurs de services d’infrastructure critiques auraient été empêchés d’utiliser pratiquement tous les antivirus disponibles dans le commerce.

Dans le même temps, les systèmes de gestion alimentés par l’IA ne sont pas sans risques. Kris Shrishak, un technologue au Conseil irlandais pour les libertés civiles, a présenté le cas de l’Inde en 2012 lorsqu’une erreur de calcul du trafic de pointe du réseau électrique a peut-être conduit à la plus grande panne de courant de l’histoire.

Par conséquent, l’argument en faveur d’une approche plus granulaire dans la catégorisation à haut risque concerne le moment où les solutions d’IA rendent l’infrastructure plus sûre et si leur défaillance n’entraîne pas une menace imminente.

L’entretien physique, par exemple, est souvent coûteux et prend du temps, ce qui peut entraîner la détérioration des infrastructures. Ne pas utiliser la capacité de l’IA à identifier les modèles et à repérer les anomalies avant qu’elles ne se transforment en problèmes plus importants peut également avoir un coût.

L’année dernière, au milieu de la crise énergétique provoquée par la Russie, la France, généralement le plus grand exportateur d’énergie d’Europe, est devenue un importateur net car un nombre record de ses réacteurs nucléaires ont été mis hors service en raison d’arrêts de maintenance.

[Edited by Nathalie Weatherald]





Source link -42