Les escroqueries par clonage vocal représentent une menace croissante, utilisant des technologies d’intelligence artificielle pour imiter des voix humaines et tromper les victimes. Ces arnaques automatisées ciblent les individus en se faisant passer pour des proches, créant un sentiment d’urgence pour obtenir des informations sensibles. Pour se protéger, il est recommandé de poser des questions spécifiques, de rester vigilant face aux incohérences vocales et de vérifier les identités via des protocoles bancaires.
Les Escroqueries par Clonage Vocal : Une Nouvelle Menace
Le prochain appel que vous recevrez pourrait ne pas provenir d’une personne réelle, et votre oreille pourrait ne pas être en mesure de le détecter. Des fraudeurs exploitent des modèles d’intelligence artificielle vocale pour automatiser leurs arnaques, réussissant à tromper les victimes en imitant des appelants humains, y compris des proches.
Comment Protéger Vos Informations Personnelles
L’émergence de modèles d’IA capables de reproduire des voix humaines a créé un nouveau risque en matière d’escroqueries téléphoniques. Ces outils, tels que l’API vocale d’OpenAI, permettent une interaction en temps réel entre un utilisateur et un modèle d’IA. Avec un peu de code, ces modèles peuvent être utilisés pour mener des arnaques téléphoniques, incitant les victimes à partager des informations sensibles.
Alors, comment pouvez-vous vous protéger ? Ce qui rend cette menace si préoccupante, c’est non seulement la simplicité et le faible coût de son utilisation, mais aussi la qualité de l’imitation vocale par l’IA.
OpenAI a été critiqué pour son option de voix « Sky », qui ressemblait étonnamment à celle de Scarlett Johansson, tandis que Sir David Attenborough a exprimé son malaise face à un clone vocal qui était pratiquement indiscernable de sa véritable voix.
Des outils conçus pour déjouer les escroqueries révèlent également à quel point les frontières entre l’authentique et le faux se brouillent. Par exemple, le réseau britannique O2 a récemment lancé Daisy, une grand-mère virtuelle qui engage les escrocs dans des conversations pour les faire perdre du temps, leur faisant croire qu’ils parlent à une personne âgée réelle. C’est une application astucieuse de la technologie, mais elle souligne aussi la capacité de l’IA à simuler les interactions humaines.
Plus inquiétant encore, les fraudeurs peuvent entraîner des voix d’IA à partir de très courts échantillons audio. Selon des experts en cybersécurité, quelques secondes suffisent pour créer une imitation d’un proche, souvent à partir de vidéos partagées sur les réseaux sociaux.
Le principe d’une escroquerie par clonage vocal est similaire à celui des escroqueries téléphoniques traditionnelles : les cybercriminels se font passer pour quelqu’un d’autre pour gagner la confiance de la victime, avant de créer un sentiment d’urgence qui les pousse à divulguer des informations sensibles ou à transférer de l’argent.
La différence avec les escroqueries par clonage vocal réside dans leur automatisation, permettant aux criminels de cibler plus de personnes rapidement et à moindre coût. De plus, ils peuvent imiter non seulement des figures d’autorité et des célébrités, mais aussi des individus de votre entourage.
Tout ce dont ils ont besoin, c’est d’un échantillon audio, généralement extrait d’une vidéo en ligne. Cet échantillon est analysé par le modèle d’IA et utilisé dans des interactions trompeuses. Une stratégie courante consiste à imiter un membre de la famille demandant de l’argent en situation d’urgence.
Les fraudeurs utilisent aussi cette technologie pour simuler la voix de personnalités influentes afin de manipuler leurs victimes. Récemment, un clone vocal du Premier ministre du Queensland a été utilisé dans une tentative d’escroquerie d’investissement.
Selon une étude, une part importante de la population adulte a été ciblée par des escroqueries par clonage vocal, mais peu se sentent capables de les identifier. C’est pourquoi certaines banques ont lancé des initiatives encourageant les clients à établir des phrases secrètes pour confirmer l’identité lors des appels.
Si vous avez des doutes sur la légitimité d’un appel, ne paniquez pas. Posez des questions que seul l’appelant pourrait connaître, comme des détails de votre dernière conversation. Cela peut vous aider à établir la véracité de l’appel.
Restez attentif aux signes révélateurs : bien que les clones vocaux soient très convaincants, ils ne sont pas parfaits. Faites attention aux incohérences dans le discours, aux accents étranges ou à un ton monotone.
Les escrocs peuvent également masquer leur numéro pour sembler appeler d’un contact de confiance. En cas de doute, il est préférable de raccrocher et de rappeler le numéro habituel de la personne.
Les escroqueries par clonage vocal utilisent souvent les mêmes techniques que les arnaques téléphoniques classiques, en jouant sur les émotions et en créant un sentiment d’urgence. Restez vigilant face aux demandes inhabituelles, en particulier celles impliquant des transferts d’argent.
Enfin, il est utile de connaître les protocoles de contact de votre banque. Par exemple, certaines institutions financières offrent des outils permettant de vérifier l’identité de l’appelant, ce qui peut vous rassurer sur la légitimité de l’appel reçu.