Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Le développement rapide des outils technologiques amène les fraudeurs à recourir à différents moyens. Enfin une nouvelle astuce imiter des sons avec l’intelligence artificielle prend le relais. En conséquence, les pirates demandent de l’argent aux personnes utilisant la voix de certaines personnes.
Les pirates ont commencé la fraude avec la technologie vocale de l’intelligence artificielle
Commission fédérale du commerce des États-Unis Le rapport de la (FTC) a révélé que les escrocs trompaient les gens avec de faux appels téléphoniques. En utilisant la technologie d’imitation de la voix, les escrocs peuvent copier les voix des membres de la famille d’une personne.
Selon la présidente de la FTC, Lina Khan, l’avancement rapide des outils d’IA a le potentiel d’augmenter la fraude. Surtout avec le développement de la technologie de la voix artificielle, il deviendra de plus en plus difficile pour les utilisateurs de faire la distinction entre la vraie et la fausse communication.
Selon la recherche, les pirates collectent des sons à partir de plateformes de médias sociaux et utilisent des algorithmes d’intelligence artificielle pour générer les phrases qu’ils souhaitent. Il entraîne ensuite l’IA à imiter avec précision ces sons.
Les escrocs cherchent de l’argent pour les urgences en appelant les membres de la famille ou les amis des personnes qu’ils se font passer pour. Par exemple, en 2020, alors que l’intelligence artificielle n’était pas si développée, 5100 fraudes téléphoniques ont été commises et 11 millions de dollars l’argent a été volé.
De nombreux pays à travers le monde, dont la Turquie, ont des lois pour lutter contre les escroqueries frauduleuses. Cependant, il est de plus en plus difficile de détecter jour après jour les fraudes commises à l’aide de l’intelligence artificielle.
Alors que pensez-vous de ce sujet ? Vous pouvez partager vos points de vue avec nous dans la section des commentaires.