Customize this title in frenchUne agence de l’UE cartographie les principaux problèmes de cybersécurité liés à l’intelligence artificielle

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsL’Agence européenne de cybersécurité, ENISA, a publié une série de rapports sur les défis de la cybersécurité pour l’IA mercredi (7 juin). Les reporters ont été publiés en même temps que la conférence AI Cybersecurity organisée par l’ENISA, qui a abordé les implications de la cybersécurité en termes de chatbots IA, de recherche et d’innovation, ainsi que les défis juridiques et industriels. « Si nous voulons à la fois sécuriser les systèmes d’IA et garantir la confidentialité, nous devons examiner de près le fonctionnement de ces systèmes », a déclaré Juhan Lepassaar, directeur exécutif de l’Agence de l’UE pour la cybersécurité. Les pays de l’UE réservent un accueil mitigé à la stratégie de cyberdéfense Les ministres de la défense de l’UE ont adopté mardi 23 mai des conclusions sur la cyberdéfense, soulignant la nécessité d’éviter les doubles emplois dans l’architecture institutionnelle et indiquant leurs priorités en matière de développement des compétences et de coordination volontaire dans le secteur de la défense. Problèmes de confidentialité L’ENISA a également publié des rapports axés sur l’impact significatif de l’IA sur la sécurité et la confidentialité, en prenant comme scénarios la prévision de la demande sur les réseaux électriques et le domaine du diagnostic par imagerie médicale. « Bien que la sécurité et la confidentialité ne soient pas nécessairement identiques, elles sont intimement liées et tout aussi importantes », indique l’un des rapports. L’ENISA a recommandé que « l’ensemble du contexte de la cybersécurité et de la confidentialité (exigences, menaces, vulnérabilités et contrôles) doit être adapté au contexte et à la réalité de l’organisation individuelle », Lacunes de la recherche Sur le thème du paysage européen de l’IA et de la cybersécurité dans le domaine de la recherche et de l’innovation, l’ENISA a cartographié l’état actuel de l’IA et de la cybersécurité afin d’identifier les lacunes potentielles. L’analyse met en évidence six lacunes dans l’innovation de la recherche, parmi lesquelles le manque d’informations et de connaissances adéquates sur le potentiel des solutions d’IA pour la cybersécurité, une documentation adéquate des projets de déploiement et des activités de démonstration. On a également soulevé le fait qu’une minorité de prototypes raffinés dans le contexte de la recherche et développement (R&D) qui entrent sur le marché, un écart de perception entre la recherche et le monde des affaires, et la capacité limitée de ces projets à résoudre les problèmes existants et émergents. « Alors que l’impact de l’IA sur le paysage global des risques présente des défis et des opportunités, la sécurisation de l’IA et des vulnérabilités spécifiques à l’IA est à la fois un défi organisationnel et de R&D », a déclaré Henrik Junklewitz du département de recherche de la Commission européenne. Selon son rapport sur l’intelligence artificielle et la recherche en cybersécurité, l’ENISA prévoit d’élaborer une feuille de route et de créer un observatoire de la R&D en cybersécurité axé sur l’IA. Systèmes sécurisés Une partie de la conférence a également couvert les meilleures pratiques pour sécuriser les systèmes d’IA, avec l’exemple du rôle de l’Office fédéral allemand pour la sécurité de l’information, BSI. L’autorité façonne la sécurité de l’information pour les technologies numériques, y compris l’IA. « Nous devons développer des critères pratiques, par conséquent, l’IA doit être prise en compte dans le système de cas d’utilisation, c’est ce que nous devons prendre en compte lorsque nous envisageons de sécuriser les systèmes d’IA », a déclaré Arndt von Twickel, de l’Office fédéral du BSI. Compte tenu de la complexité du cycle de vie d’un système d’IA, de nouvelles vulnérabilités apparaissent. Pour sécuriser avec succès un système d’IA, toutes les phases, couvrant la planification, les données, la formation, l’évaluation et l’exploitation, doivent être prises en compte. « Nous examinons les propriétés fondamentales de l’IA dans différents domaines. Notre contribution sera 1) de développer des documents et des directives techniques spécifiques à un domaine et à un cas d’utilisation, 2) de mettre à jour le modèle d’IA généralisé et d’utiliser les résultats des deux premiers points pour contribuer à la normalisation, à la réglementation et au conseil », von Twickel a élaboré. Le déficit de compétences met à l’épreuve la conformité aux règles de l’UE en matière de cybersécurité Un nouveau cadre réglementaire visant à accroître la résilience de la cybersécurité est en train de se mettre en place au niveau de l’UE, mais il risque d’exposer la pénurie croissante de cyber-talents au sein des régulateurs et des entreprises. Un certain nombre de nouvelles exigences réglementaires doivent entrer en vigueur… Bonnes pratiques L’ENISA a également consacré un rapport sur un Cadre multicouche pour les bonnes pratiques de cybersécurité pour l’IA. Le rapport examine trois couches d’IA : la cybersécurité de base pertinente pour l’IA, la cybersécurité spécifique à l’IA et la cybersécurité spécifique au secteur de l’IA pour le public des parties prenantes de l’IA et des autorités nationales compétentes (ANC). « Il y a différents seuils, les start-up proposent de bonnes solutions. Le défi est de savoir comment fixer le seuil et comment réglementer les grands acteurs et les acteurs non européens ? » a souligné Rafael Popper, chercheur à l’Université de Turku. Tout en différenciant les différentes parties prenantes, le rapport constate que les institutions de l’UE et ses États membres doivent collaborer pour fournir un cadre éthique mondialement accepté afin de développer des mesures universellement acceptables. « La réglementation arrive d’une manière ou d’une autre. Le mot clé ici est une IA de confiance. L’UE a maintenant une chance de les rendre dignes de confiance. Cela doit être considéré comme une opportunité, pas comme un défi », a ajouté Junklewitz. [Edited by Luca Bertuzzi/Nathalie Weatherald] En savoir plus avec EURACTIV !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘307743630704587’); fbq(‘track’, ‘PageView’);

Source link -57