Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les développeurs d’IA n’ont « aucune excuse » pour se tromper sur la confidentialité des données, a déclaré l’un des responsables du régulateur britannique des données, avertissant que ceux qui ne respectent pas la loi sur la protection des données en subiront les conséquences.
L’Information Commissioner’s Office (ICO) applique la protection des données au Royaume-Uni. S’exprimant au milieu de l’explosion d’intérêt pour l’IA générative, en particulier les grands modèles de langage comme celui qui alimente ChatGPT d’OpenAI, Stephen Almond, directeur exécutif des risques réglementaires de l’ICO, a averti que les LLM représentaient un risque pour la sécurité des données.
Dans un article de blog, il a déclaré qu’il était temps de « prendre du recul et de réfléchir à la manière dont les données personnelles sont utilisées ».
Il a noté que Sam Altman, le PDG du créateur de ChatGPT OpenAI, a lui-même déclaré ses propres inquiétudes concernant les progrès de l’IA et ce qu’ils pourraient signifier.
Et faisant référence à une lettre publiée la semaine dernière qui a été signée par des leaders technologiques et des experts en IA qui appelaient à une pause immédiate dans le développement de l’IA, Almond a raconté une conversation qu’il a eue avec ChatGPT lui-même.
« L’IA générative, comme toute autre technologie, a le potentiel de présenter des risques pour la confidentialité des données si elle n’est pas utilisée de manière responsable », a écrit le chatbot.
« Et il ne faut pas trop d’imagination pour voir le potentiel pour une entreprise de nuire rapidement à une relation durement gagnée avec ses clients par une mauvaise utilisation de l’IA générative », a déclaré Almond.
Il a ajouté que bien que la technologie puisse être nouvelle, les principes de la loi sur la protection des données sont les mêmes.
8 questions pour les développeurs d’IA
« Les organisations développant ou utilisant l’IA générative devraient considérer leurs obligations en matière de protection des données dès le départ, en adoptant une approche de protection des données dès la conception et par défaut », a-t-il déclaré, ajoutant que cela « n’est pas facultatif… c’est la loi ».
Il a ensuite énuméré huit questions que les développeurs d’IA qui utilisent des données personnelles doivent se poser, ajoutant que l’ICO leur posera des questions et agira là où les organisations ne respectent pas la loi.
Les questions sont :
- Quelle est votre base légale pour le traitement des données personnelles ?
- Êtes-vous un responsable du traitement, un responsable conjoint ou un sous-traitant ?
- Avez-vous préparé une analyse d’impact sur la protection des données (DPIA) ?
- Comment assurerez-vous la transparence ?
- Comment allez-vous atténuer les risques de sécurité ?
- Comment allez-vous limiter les traitements inutiles ?
- Comment allez-vous vous conformer aux demandes de droits individuels ?
- Utiliserez-vous l’IA générative pour prendre des décisions uniquement automatisées ?
« Il n’y a vraiment aucune excuse pour se tromper sur les implications de l’IA générative en matière de confidentialité », a-t-il déclaré, avertissant que son organisation « travaillera dur » pour s’assurer que les organisations font les choses correctement.