Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
ChatGPT et des outils d’IA similaires s’avèrent utiles dans de nombreux contextes différents – et Europol craint qu’ils ne soient tout aussi utiles aux criminels.
ChatGPT, l’application à la croissance la plus rapide de tous les temps, a donné aux utilisateurs la puissance d’une intelligence artificielle (IA) intelligente à grand modèle de langage – formée sur une base de données massive d’informations provenant d’Internet – au bout de leurs doigts.
Ce nouveau pouvoir a déjà entraîné des changements dans la façon dont de nombreuses personnes effectuent leur travail ou recherchent des informations sur Internet, la technologie d’OpenAI inspirant à la fois l’enthousiasme face à la promesse de l’avenir que l’IA peut offrir, ainsi que les craintes quant aux changements qu’elle est inaugurant.
L’une des craintes entourant la technologie de l’IA comme ChatGPT est ce que les criminels et autres mauvais acteurs feront avec ce pouvoir.
C’est ce qu’Europol, l’agence d’application de la loi de l’Union européenne, a examiné dans son récent rapport sur ChatGPT intitulé « L’impact des grands modèles linguistiques sur l’application de la loi‘.
ChatGPT, qui s’appuie sur la technologie de grand modèle de langage GPT3.5 d’OpenAI, pourrait permettre « beaucoup plus facilement aux acteurs malveillants de mieux comprendre et de commettre par la suite divers types de crimes », indique le rapport.
En effet, bien que les informations sur lesquelles ChatGPT est formé soient déjà disponibles gratuitement sur Internet, la technologie est en mesure de fournir des instructions étape par étape sur toutes sortes de sujets, si l’utilisateur reçoit les bonnes questions contextuelles.
Voici les types de crimes qu’Europol avertit que les chatbots, ou LLM, pourraient potentiellement aider les criminels.
Fraude, usurpation d’identité et ingénierie sociale
ChatGPT et d’autres chatbots comme Google’s Bard ont étonné les utilisateurs avec leurs capacités à fournir une écriture humaine sur n’importe quel sujet, en fonction des invites de l’utilisateur.
Ils peuvent imiter les styles d’écriture des célébrités et apprendre un style d’écriture à partir du texte saisi, avant de créer plus d’écriture dans ce style appris. Cela ouvre le système à une utilisation potentielle par des criminels qui veulent se faire passer pour quelqu’un ou le style d’écriture d’une organisation, ce qui pourrait peut-être être utilisé dans des escroqueries par hameçonnage.
Europol avertit également que ChatGPT pourrait être utilisé pour donner une légitimité à divers types de fraude en ligne, par exemple en créant des masses de faux contenus sur les réseaux sociaux pour promouvoir une offre d’investissement frauduleuse.
L’un des signes évidents d’une fraude potentielle dans les communications par courrier électronique ou sur les réseaux sociaux réside dans les fautes d’orthographe ou de grammaire évidentes commises par les criminels qui rédigent le contenu.
Avec la puissance des LLM à portée de main, même les criminels maîtrisant peu la langue anglaise seraient en mesure de générer du contenu qui n’a plus ces drapeaux rouges.
La technologie est également mûre pour être utilisée par ceux qui cherchent à créer et à diffuser de la propagande et de la désinformation, car elle est apte à élaborer des arguments et des récits à grande vitesse.
La cybercriminalité pour les débutants
ChatGPT est non seulement doué pour écrire des mots, mais il maîtrise également un certain nombre de langages de programmation. Selon Europol, cela signifie que cela pourrait avoir un impact sur la cybercriminalité.
« Avec la version actuelle de ChatGPT, il est déjà possible de créer des outils de base à diverses fins malveillantes », prévient le rapport.
Ce seraient des outils de base pour produire des pages de phishing par exemple, mais cela permet aux criminels ayant peu ou pas de connaissances en codage de créer des choses qu’ils ne pouvaient pas créer auparavant.
Les améliorations inévitables des capacités de LLM signifient que l’exploitation par des criminels « offre une sombre perspective » dans les années à venir.
Le fait que la dernière version d’OpenAI de son transformateur, GPT-4, comprenne mieux le contexte du code et corrige les erreurs, signifie « c’est une ressource inestimable » pour les criminels ayant peu de connaissances techniques.
Europol avertit qu’avec l’amélioration de la technologie de l’IA, elle peut devenir beaucoup plus avancée « et par conséquent dangereuse ».
Les deepfakes ont déjà des conséquences dans le monde réel
Les cas d’utilisation de ChatGPT mis en garde par Europol ne sont qu’un domaine de l’IA qui pourrait être exploité par des criminels.
Il y a déjà eu des cas de contrefaçons profondes de l’IA utilisées pour escroquer et nuire aux gens. Dans un cas, une femme a déclaré qu’elle n’avait que 18 ans lorsqu’elle a découvert des photos pornographiques d’elle circulant en ligne – bien qu’elle n’ait jamais pris ou partagé ces images.
Son visage avait été ajouté numériquement aux images du corps d’une autre personne. Elle a déclaré à Euronews Next qu’il s’agissait « d’une condamnation à perpétuité ». Un rapport de Deeptrace Labs de 2019 a révélé que 96 % du contenu deepfake en ligne est de la pornographie non consensuelle.
Un autre cas a vu l’IA utilisée pour imiter le son de la voix de quelqu’un pour arnaquer un membre de sa famille, en utilisant une technique de deepfake audio.
Europol a conclu son rapport en déclarant qu’il est important que les forces de l’ordre « restent à la pointe de ces développements » et qu’elles anticipent et préviennent l’utilisation criminelle de l’IA.