Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Berlin L’e-mail qui vient d’arriver dans votre boîte de réception est-il une cyberattaque ? Le chatbot ChatGPT rend difficile la réponse à cette question. Parce que les fraudeurs peuvent l’utiliser pour créer des e-mails dits de phishing qui visent à obtenir des données personnelles, des informations de carte de crédit ou des mots de passe des utilisateurs.
Une étude du fournisseur de cybersécurité Sosafe montre qu’un clic sur cinq sur les e-mails de phishing créés à l’aide de l’intelligence artificielle. Beaucoup plus – à savoir 78% – ne démasquent pas tout de suite le courrier de phishing. Et le danger augmente : selon l’enquête, les modèles de langage génératifs tels que ChatGPT peuvent aider les pirates à composer des e-mails de phishing beaucoup plus rapidement.
Parce que ChatGPT facilite les escroqueries sous forme de texte. « Là où les escrocs échouaient à l’obstacle de la langue parce que les textes étaient grammaticalement mauvais ou qu’ils n’avaient pas assez de capacité pour écrire des textes à grande échelle, ChatGPT soulage les escrocs de ce travail ou leur facilite la tâche », déclare text forensic scientifique Inna Vogel de Fraunhofer SIT.
ChatGPT aide également avec le bot spoofing
Les e-mails de phishing créés à l’aide de ChatGPT ne sont en aucun cas la seule arnaque devenue plus facile grâce à l’intelligence artificielle. Les fraudeurs pourraient également utiliser de faux robots clients pour faire croire aux clients qu’ils communiquent avec le support officiel d’un site, prévient Vogel.
« De cette façon, ils peuvent essayer d’obtenir un paiement pour des services inexistants ou inciter les utilisateurs à télécharger des logiciels malveillants », décrit Vogel dans des scénarios possibles.
>> Lire à ce sujet : Comment protéger vos données privées dans l’IA
ChatGPT peut également aider à créer de faux sites d’actualités avec des outils appropriés. Les fraudeurs qui souhaitent gagner de l’argent grâce aux revenus publicitaires, par exemple, peuvent demander à ChatGPT de générer des textes sur divers sujets. « Les modèles d’IA texte-image comme la diffusion stable peuvent être utilisés pour générer de fausses images », explique Vogel. Beaucoup de temps peut s’écouler avant que cela ne soit reconnu – au cours duquel ces images obtiennent une large couverture sur les réseaux sociaux.
L’IA générative peut également aider à imiter le style d’écriture d’un utilisateur, une arnaque difficile à repérer. « La réputation peut être endommagée en diffusant des messages qui vont à l’encontre de ses opinions, de ses croyances ou de ses normes », explique Vogel. Par exemple, de fausses citations pourraient être attribuées à un politicien – avec des conséquences importantes sur sa carrière politique ou même sur sa vie privée.
Comment se protéger des arnaques ?
Jusqu’à présent, aucune application ne peut protéger efficacement contre les escroqueries générées par l’IA. « Par conséquent, le bon sens et la prudence sont de mise, en particulier lorsqu’il s’agit d’informations personnelles et confidentielles ou d’argent », déclare Vogel. Il est toujours important de vérifier l’authenticité de la communication, surtout si elle semble suspecte ou contient des demandes inhabituelles.
Il est conseillé aux utilisateurs de ne pas cliquer sur des liens suspects ou de télécharger des fichiers provenant de sources inconnues. Vogel conseille que ceux qui font leurs propres recherches se protègent le plus efficacement. Si le contenu ne correspond pas aux rapports de sources indépendantes, il peut s’agir d’un faux rapport.
Plus: Ce que vous devez savoir sur l’IA d’OpenAI