Customize this title in french C’est une arnaque ! Comment les deepfakes et le clonage vocal exploitent votre argent

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Un récent appel vidéo deepfake avec ce que l’on pensait être le directeur financier d’une entreprise a coûté 23 millions d’euros à une entreprise non divulguée à Hong Kong.

PUBLICITÉ

Les tentatives frauduleuses de vérification d’identité par deepfake ont augmenté de 3 000 % au cours de l’année écoulée, ce qui indique une menace émergente à mesure que de nouvelles méthodes d’escroquerie financière émergent.

L’utilisation d’une fausse identité ou d’une identité volée est le principal moyen d’accéder frauduleusement à un compte bancaire, et les victimes du monde entier sont privées de milliards d’argent durement gagné.

Aujourd’hui, les escrocs trompent les gens en utilisant la nouvelle technologie des outils d’intelligence artificielle (IA) générative qui peuvent imiter la voix ou l’apparence des gens pour accéder à leurs comptes bancaires.

Comment savoir qui croire ?

Un exemple récent de deepfaking (manipulation numérique de vidéos ou d’images) est le transfert d’un montant de 23 millions d’euros à une société non divulguée à Hong Kong, sur ce qui semble être l’ordre du directeur financier de l’entreprise.

La police de Hong Kong a déclaré que l’employé qui avait effectué le transfert pensait que le directeur financier de l’entreprise, ainsi que toutes les autres personnes participant à l’appel vidéo, étaient réels.

L’arnaque n’a été découverte que lorsque l’employé s’est informé ultérieurement auprès du siège social de l’entreprise.

De plus en plus de rapports racontent que des personnes reçoivent des appels d’amis et de parents demandant une aide financière. Ils semblent réels. Ils ne demandent peut-être pas grand-chose. Mais en cas de doute, disent les experts, raccrochez toujours et rappelez votre interlocuteur.

Une autre utilisation frauduleuse de l’IA générative s’est produite en Australie, où elle a été utilisée pour créer des reportages entiers et des vidéos deepfakes – mettant souvent en scène une célébrité – promouvant des opportunités d’investissement. Le Centre national anti-arnaque a dû avertir que ces escroqueries ont coûté aux Australiens plus de 8 millions de dollars (4,88 millions d’euros) l’année dernière.

Des tentatives similaires ont eu lieu plus près de l’Europe en octobre 2023, lorsque de fausses vidéos ont fait surface, imitant des présentateurs de la BBC qui semblaient promouvoir un projet d’investissement d’Elon Musk.

Aux États-Unis, l’Internet Crime Complaint Center du FBI a reçu près de 900 000 plaintes l’année dernière, soit une augmentation de 22 % par rapport à l’année précédente. Les pertes potentielles s’élèvent à plus de 12,5 milliards de dollars (11,5 milliards d’euros). Les dommages futurs pourraient facilement être plus importants, car les experts prédisent une augmentation annuelle de 2 milliards de dollars (1,4 milliard d’euros) de la fraude à l’identité grâce à l’IA générative, selon Marketwatch.

Tendances des fraudes financières utilisant l’IA

Le secteur financier aurait été témoin d’une augmentation significative des fraudes impliquant des deepfakes et des algorithmes d’apprentissage automatique.

Ces outils font leur chemin grâce à la falsification de l’identification, notamment la vérification des documents, la vérification biométrique et la validation des données.

La manipulation de documents augmente rapidement grâce aux outils d’IA améliorés, et la vérification biométrique est également progressivement victime de cette tendance, selon le fournisseur de vérification d’identité Onfido dans son rapport sur la fraude à l’identité 2024.

Les fraudeurs font preuve de créativité en matière de fraude biométrique en utilisant des deepfakes, notamment des applications d’échange de visage. Les tentatives d’utilisation de deepfakes dans des escroqueries ont considérablement augmenté entre 2022 et 2023.

« De plus en plus, les fraudeurs utilisent un document authentique (obtenu via une fuite de données) pour le contrôle de vérification des documents, puis changent de visage pour le contrôle biométrique », écrit le rapport. Actuellement, bien que la falsification de données biométriques soit une tendance croissante en raison du large éventail d’outils d’IA en ligne disponibles, les aspects plus complexes de la falsification de données biométriques ne sont toujours pas répandus. Ces cas représentent un peu plus de 2 % du total des tentatives de fraude.

Mais les applications d’IA générative et de deepfake se développent.

Selon le rapport, qui analyse les tendances, un petit nombre de fraudeurs sont responsables de la majorité des attaques deepfake et ont tendance à se concentrer sur une seule entreprise à la fois. Une autre tendance suggère que, alors que les années précédentes, le nombre de tentatives d’escroquerie avait diminué au cours des week-ends, en 2023, elles ont été détectées de manière cohérente tous les sept jours de la semaine, ce qui suggère une activité mondiale et interconnectée.

L’Europe est la région la moins appréciée des fraudeurs. Les taux de fraude moyens sont de 3,1 % pour toutes les vérifications d’identité, le type de document le plus largement utilisé dans de tels crimes étant les cartes d’identité nationales. La carte d’identité nationale française est la carte d’identité la plus populaire à voler.

PUBLICITÉ

Comment l’IA peut protéger contre les fraudes bancaires

« Les mêmes outils technologiques qui rendent la fraude plus répandue dans le secteur bancaire et dans les paiements permettent aux entreprises de relever le défi », affirment les experts du cabinet de conseil McKinsey’s.

Grâce à la collaboration avec les régulateurs et les experts en cybersécurité, des solutions de pointe sont en cours d’élaboration. Il s’agit notamment de la détection et de la prévention de la fraude en temps réel, pilotées par l’IA.

L’IA pourrait notamment analyser une grande quantité de données, notamment les modèles de transactions et le comportement d’achat de chaque client, et utiliser l’apprentissage automatique pour détecter les tentatives frauduleuses à l’avenir. L’identification des modèles et le signalement des anomalies permettent de réagir rapidement aux activités suspectes.

Citigroup utilise de tels outils dans le cadre de ses efforts de lutte contre le blanchiment d’argent, et HSBC vise à prévenir la fraude aux paiements à l’aide d’un système d’IA similaire.

« L’IA peut être exploitée pour le bien commun. Les agences gouvernementales et les industries exploitent de plus en plus l’IA et l’apprentissage automatique pour lutter efficacement contre la fraude », indique le rapport Onfido.

PUBLICITÉ

Ils notent également que des outils d’IA sont disponibles pour déjouer les fausses pièces d’identité, détecter les données répétées lors des tentatives de fraude et revérifier les signes de deepfake dans la vérification biométrique.

Source link -57