Customize this title in frenchEuropol met en garde contre les utilisations criminelles potentielles de ChatGPT et autres

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

L’agence d’application de la loi de l’UE a publié lundi 27 mars un rapport éclair avertissant que ChatGPT et d’autres systèmes d’IA générative peuvent être utilisés pour la fraude en ligne et d’autres cybercrimes.

Depuis son lancement fin novembre, ChatGPT est devenu l’un des services Internet à la croissance la plus rapide, dépassant les 100 millions d’utilisateurs au cours des deux premiers mois. Grâce à sa capacité sans précédent à générer un texte de type humain basé sur des invites, le modèle est devenu viral.

Les grands modèles de langage qui peuvent être utilisés à diverses fins, comme ChatGPT d’Open AI, peuvent profiter aux entreprises et aux utilisateurs individuels. Cependant, l’agence de police européenne a souligné qu’ils posent également un défi en matière d’application de la loi, car des acteurs malveillants peuvent les exploiter.

« Les criminels sont généralement rapides à exploiter les nouvelles technologies et ont été rapidement vus proposer des exploitations criminelles concrètes, fournissant les premiers exemples pratiques quelques semaines seulement après la sortie publique de ChatGPT », lit-on dans le rapport.

La publication résulte d’une série d’ateliers organisés par le laboratoire d’innovation d’Europol pour discuter des utilisations criminelles potentielles de ChatGPT en tant qu’exemple le plus frappant de grands modèles linguistiques et de la manière dont ces modèles pourraient être utilisés pour soutenir le travail d’enquête.

Faiblesse du système

L’agence de l’UE souligne le fait que les règles de modération de ChatGPT peuvent être contournées via ce que l’on appelle l’ingénierie rapide, la pratique consistant à fournir une entrée dans un modèle d’IA précisément pour obtenir une sortie spécifique.

Comme ChatGPT est une technologie relativement récente, des lacunes sont continuellement trouvées malgré le déploiement constant de correctifs. Ces lacunes peuvent prendre la forme de demander à l’IA de fournir l’invite, de lui demander de se faire passer pour un personnage fictif ou de fournir la réponse en code.

D’autres contournements peuvent remplacer les mots déclencheurs ou modifier le contexte ultérieurement au cours des interactions. L’organisme de l’UE a souligné que les solutions de contournement les plus puissantes, qui parviennent à jailbreaker le modèle de toute contrainte, évoluent constamment et deviennent plus complexes.

Demandes pénales

Les experts ont identifié un éventail de cas d’utilisation illégale de ChatGPT qui persistent également dans le modèle le plus avancé d’OpenAI, GPT-4, où le potentiel des réponses nuisibles du système était encore plus avancé dans certains cas.

Comme ChatGPT peut générer des informations prêtes à l’emploi, Europol avertit que la technologie émergente peut accélérer le processus de recherche d’un acteur malveillant sans connaissance préalable d’un domaine criminel potentiel comme l’effraction dans une maison, le terrorisme, la cybercriminalité ou l’abus sexuel d’enfants.

« Bien que toutes les informations fournies par ChatGPT soient librement disponibles sur Internet, la possibilité d’utiliser le modèle pour fournir des étapes spécifiques en posant des questions contextuelles signifie qu’il est beaucoup plus facile pour les acteurs malveillants de mieux comprendre et ensuite de commettre divers types de crimes », dit le rapport.

Le phishing, la pratique consistant à envoyer un faux e-mail pour inciter les utilisateurs à cliquer sur un lien, est un domaine d’application crucial. Dans le passé, ces escroqueries étaient facilement détectables en raison d’erreurs de grammaire ou de langue, tandis que le texte généré par l’IA permettait ces usurpations d’identité de manière très réaliste.

De même, la fraude en ligne peut se voir attribuer une image de légitimité accrue en utilisant ChatGPT pour créer un faux engagement sur les réseaux sociaux qui pourrait aider à faire passer pour légitime une offre frauduleuse. En d’autres termes, grâce à ces modèles, « ces types de phishing et de fraude en ligne peuvent être créés plus rapidement, de manière beaucoup plus authentique et à une échelle considérablement accrue ».

De plus, la capacité de l’IA à imiter le style et le discours de personnes spécifiques peut conduire à plusieurs cas d’abus concernant la propagande, le discours de haine et la désinformation.

Outre le texte, ChatGPT peut également produire du code dans différents langages de programmation, élargissant la capacité des acteurs malveillants ayant peu ou pas de connaissances en développement informatique à transformer le langage naturel en malware.

Peu de temps après la sortie publique de ChatGPT, la société de sécurité Check Point Research a démontré comment le modèle d’IA peut être utilisé pour créer un flux d’infection complet en créant des e-mails de phishing allant du spear-phishing à l’exécution d’un reverse shell qui accepte les commandes en anglais.

« Surtout, les protections empêchant ChatGPT de fournir du code potentiellement malveillant ne fonctionnent que si le modèle comprend ce qu’il fait. Si les invites sont décomposées en étapes individuelles, il est trivial de contourner ces mesures de sécurité », ajoute le rapport.

Perspectives

ChatGPT est considéré comme une IA à usage général, un modèle d’IA qui peut être adapté pour effectuer diverses tâches.

Alors que le Parlement européen finalise sa position sur la loi sur l’IA, les députés ont discuté de l’introduction d’exigences strictes pour ce modèle de base, telles que la gestion des risques, la robustesse et le contrôle de la qualité.

Cependant, Europol semble penser que le défi posé par ces systèmes ne fera qu’augmenter à mesure qu’ils deviendront de plus en plus disponibles et sophistiqués, par exemple avec la génération de deep fakes très convaincants.

Un autre risque est que ces grands modèles de langage deviennent disponibles sur le dark web sans aucune protection et soient entraînés avec des données particulièrement nuisibles. Le type de données qui alimenteront ces systèmes et la manière dont ils pourraient être contrôlés sont des points d’interrogation majeurs pour l’avenir.

[Edited by Nathalie Weatherald]



Source link -57