Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
La Commission européenne a publié mardi 30 mai des lignes directrices internes à l’intention du personnel sur l’utilisation et l’interaction avec les modèles d’IA générative en ligne, en particulier sur leurs limites et leurs risques.
Le document «Lignes directrices à l’intention du personnel sur l’utilisation des outils d’intelligence artificielle générative disponibles en ligne» et sa note d’accompagnement, consultés par EURACTIV, ont été mis à disposition dans le système d’information interne de la Commission.
Le comité directeur de la gestion de l’information de la Commission a adopté les lignes directrices le 27 avril.
« Les directives couvrent les outils tiers accessibles au public en ligne, tels que ChatGPT. Ils visent à aider le personnel de la Commission européenne à comprendre les risques et les limites que les outils disponibles en ligne peuvent apporter et à soutenir l’utilisation appropriée de ces outils », lit-on dans la note d’accompagnement.
En particulier, le document est destiné à guider les membres du personnel dans la gestion des risques et des limites de l’IA générative telle que ChatGPT, Bard et Stable Diffusion qui génèrent du contenu en fonction des invites de l’utilisateur.
La Commission a noté comment ces outils ont le potentiel d’accroître l’efficacité et d’améliorer la qualité de la productivité du travail au bureau, car ils pourraient aider à rédiger des notes d’information et à développer du code informatique, mais cette utilisation doit également être protégée dans un ensemble de conditions.
Les lignes directrices notent que « les risques et les limites discutés ne sont pas nécessairement pertinents pour les outils d’IA générative développés en interne par la Commission. Les outils internes développés et/ou contrôlés par la Commission seront évalués au cas par cas dans le cadre de la gouvernance d’entreprise existante pour les systèmes informatiques.»
En outre, il souligne qu’il doit être considéré comme un « document évolutif » à tenir à jour en fonction des développements technologiques et des interventions réglementaires à venir, à savoir la loi sur l’IA de l’UE.
Le premier risque décrit est la divulgation d’informations sensibles ou de données personnelles au public, car les directives soulignent que toute entrée fournie à un modèle d’IA générative en ligne est ensuite transmise au fournisseur d’IA, ce qui signifie qu’elle peut ensuite alimenter les futures sorties générées.
Ainsi, il est interdit au personnel de l’UE de partager « toute information qui n’est pas déjà dans le domaine public, ni des données personnelles, avec un modèle d’IA générative disponible en ligne ».
Le deuxième point concerne les lacunes potentielles du modèle d’IA, qui pourraient conduire à des réponses erronées ou biaisées en raison d’un ensemble de données incomplet ou de la conception de l’algorithme, sur lesquels les développeurs d’IA ne sont pas toujours transparents.
La règle est donc que les fonctionnaires de l’UE « devraient toujours évaluer de manière critique toute réponse produite par un modèle d’IA générative disponible en ligne pour détecter les biais potentiels et les informations factuellement inexactes ».
De plus, le document ajoute que ce manque de transparence implique également un risque de violation des droits de propriété intellectuelle, en particulier du droit d’auteur, car le contenu protégé pourrait être utilisé pour entraîner le modèle d’IA. Comme les sorties produites ne créditent pas le matériel utilisé, il est presque impossible pour les utilisateurs d’obtenir l’autorisation nécessaire des titulaires de droits.
En conséquence, les membres du personnel sont toujours priés de manière critique d’évaluer si la sortie générée par l’IA viole les droits de propriété intellectuelle, et le droit d’auteur en particulier, et de « ne jamais reproduire directement la sortie d’un modèle d’IA générative dans des documents publics, tels que la création de Commission textes, notamment juridiquement contraignants.
Enfin, le document souligne que les modèles d’IA générative peuvent avoir un temps de réponse long ou ne pas être disponibles tout le temps. Par conséquent, il est interdit au personnel de la Commission de s’appuyer sur ces outils pour des tâches critiques et urgentes.
[Edited by Alice Taylor]