Customize this title in frenchLes cybercriminels utilisent des chatbots IA pour écrire des e-mails de phishing grammaticalement corrects, avertissent les experts

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les acteurs de la menace s’en donnent à coeur joie car les chatbots leur permettent de supprimer les erreurs grammaticales et linguistiques flagrantes de leurs e-mails et textes frauduleux. L’Agence de l’Union européenne pour la coopération en matière d’application de la loi (EUROPOL) a publié un avis sur l’utilisation criminelle de ChatGPT et d’autres grands modèles linguistiques (LLM).

« La capacité de ChatGPT à rédiger un texte très réaliste en fait un outil utile à des fins de phishing. La capacité des LLM à reproduire des modèles de langage peut être utilisée pour imiter le style de discours d’individus ou de groupes spécifiques », lit-on dans l’avis d’EUROPOL. « Cette capacité peut être exploitée à grande échelle pour inciter les victimes potentielles à placer leur confiance entre les mains d’acteurs criminels. »

Des experts en cybersécurité au Royaume-Uni ont déclaré que les e-mails de phishing, écrits à l’aide de bots, avaient connu une augmentation significative ces derniers mois, en particulier après la montée fulgurante de ChatGPT. Les criminels créaient désormais des e-mails parfaitement écrits qui pouvaient facilement tromper la majorité du public.

« Ce que nous pensons avoir un impact immédiat sur le paysage des menaces, c’est que ce type de technologie est utilisé pour une ingénierie sociale meilleure et plus évolutive : l’IA vous permet de créer des e-mails de « spear-phishing » très crédibles et d’autres communications écrites avec très peu effort, en particulier par rapport à ce que vous avez à faire auparavant », a déclaré Max Heinemeyer, directeur des produits de la société britannique de cybersécurité Darktrace, cité par The Guardian.

Regarder | ChatGPT fait des vagues, mais peut-on lui faire confiance ?

Vidéos YouTube générées par l’IA

En plus d’aider les experts en hameçonnage, les pirates utilisent des vidéos générées par l’IA sur YouTube pour diffuser des logiciels malveillants et voler des informations confidentielles.

Alors qu’auparavant, ces vidéos comportaient un enregistrement d’écran ou une procédure audio, les pirates du nouvel âge avaient développé leurs outils à l’aide de la technologie.

C’est un fait bien connu que regarder un visage humain à l’écran, en particulier avec certains traits du visage, augmente la familiarité et la fiabilité. Les pirates jouent sur cette psychologie et utilisent des outils d’intelligence artificielle pour présenter des humains qui vendent le « malware » présenté sous forme de didacticiel.

(Avec les contributions des agences)

Source link -57