Customize this title in french Les sociétés financières doivent renforcer les protections contre les escroqueries liées à l’IA, avertit le régulateur britannique | Intelligence artificielle (IA)

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Le chef du régulateur financier britannique doit avertir que les banques, les investisseurs et les assureurs devront augmenter leurs dépenses pour lutter contre les escrocs utilisant l’intelligence artificielle pour commettre des fraudes.

Nikhil Rathi, directeur général de la Financial Conduct Authority (FCA), dira qu’il existe des risques de « cyberfraude, de cyberattaques et d’usurpation d’identité dont l’ampleur, la sophistication et l’efficacité augmentent » à mesure que l’intelligence artificielle (IA) se généralise, dans un discours à Londres mercredi.

Les progrès rapides de la sophistication de l’IA générative par des entreprises telles que OpenAI et Midjourney ont obligé les entreprises à se démener pour trouver comment utiliser la technologie pour améliorer la productivité.

La technologie a également suscité des inquiétudes quant à la facilité avec laquelle les utilisateurs peuvent simuler le langage, l’audio et la vidéo.

Le Premier ministre, Rishi Sunak, espère faire du Royaume-Uni un centre de réglementation de l’IA. Le travail de la FCA sur l’IA fait partie d’un effort plus large visant à déterminer comment réglementer le secteur des grandes technologies, car il propose de plus en plus de produits financiers.

Rathi avertira que la technologie de l’IA augmenterait les risques pour les entreprises financières en particulier. Les cadres supérieurs de ces entreprises seront « ultimement responsables des activités de l’entreprise », y compris des décisions prises par AI, devrait-il dire.

« Au fur et à mesure que l’IA sera adoptée, l’investissement dans la prévention de la fraude et la résilience opérationnelle et cyber devra s’accélérer simultanément », dira-t-il.

« Nous adopterons une ligne ferme à ce sujet – un soutien total à l’innovation bénéfique parallèlement à des protections proportionnées. »

Il y a déjà eu des cas d’escroqueries financières utilisant l’IA. Rathi citera une vidéo « deepfake » de l’éminent militant des finances personnelles, Martin Lewis, censé vendre des investissements spéculatifs.

Lewis a déclaré que la vidéo était « terrifiante » et a appelé les régulateurs à forcer les grandes entreprises technologiques à prendre des mesures pour mettre fin à des escroqueries similaires.

ignorer la promotion de la newsletter

Rathi pense que l’IA aura des avantages pour le secteur financier en améliorant les modèles financiers, en augmentant la productivité du support client et en améliorant la détection de la fraude et du blanchiment d’argent.

Cependant, il dira qu’il existe d’autres risques potentiels pour les marchés financiers, notamment une volatilité accrue des mouvements de prix, entraînée par des robots de trading automatisés, ou des ensembles de données biaisés qui pourraient s’avérer encore plus nuisibles s’ils étaient utilisés par l’IA.

« L’utilisation de l’IA peut à la fois profiter aux marchés et peut également entraîner des déséquilibres et des risques qui affectent l’intégrité, la découverte des prix, la transparence et l’équité des marchés si elle se déchaîne sans entraves », dira-t-il.

Source link -57