Customize this title in french Imaginez que votre enfant demande de l’argent. Sauf que ce n’est pas eux – c’est une arnaque à l’IA | James sage

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Jette année, on m’a envoyé un lien vers une vidéo de moi-même, expliquant avec passion pourquoi j’avais investi dans une nouvelle entreprise technologique. Dans la vidéo, j’ai parlé avec enthousiasme de la grande confiance que j’avais dans le leadership de l’entreprise et j’ai encouragé les autres à essayer le service. Le problème était que je n’avais jamais rencontré l’entreprise ni utilisé son produit.

Cela me ressemblait et me ressemblait, jusqu’à l’accent mancunien qui s’estompait. Mais ce n’était pas le cas. C’était un faux généré par l’IA utilisé dans un argumentaire commercial et conçu pour m’inciter à investir dans une entreprise. Loin de m’impressionner, cela m’a laissé préoccupé par la myriade de façons dont ces nouveaux outils pourraient être utilisés à des fins frauduleuses.

Des violations de données aux attaques de phishing, où les fraudeurs incitent les gens à partager des mots de passe ou à envoyer de l’argent sur un compte inconnu, la cybercriminalité est déjà l’une des formes de criminalité les plus courantes et les plus pernicieuses au Royaume-Uni. En 2022, le Royaume-Uni comptait le plus grand nombre de victimes de cybercriminalité par million d’internautes au monde. Nous sommes en partie victimes de notre propre succès numérique. Les Britanniques ont rapidement adopté de nouvelles technologies telles que les achats en ligne et les services bancaires mobiles, des activités que les cybercriminels souhaitent exploiter. À mesure que l’IA devient plus sophistiquée, ces criminels se voient offrir encore plus de moyens de nous faire croire qu’ils sont quelqu’un qu’ils ne sont pas.

De nombreux progrès impressionnants dans l’imitation humaine sont en cours de développement à notre porte. La société ElevenLabs a construit et publié un outil capable de reproduire presque parfaitement n’importe quel accent, dans n’importe quelle langue. Vous pouvez aller sur son site Web et demander à ses modèles pré-formés de lire des déclarations en utilisant le New Yorker « Sam » qui parle vite ou les tons plus doux du Midwest de « Bella ».

La société londonienne Synthesia va plus loin. Sa technologie permet aux clients de créer de nouveaux vendeurs. Vous pouvez générer une vidéo photoréaliste d’une personne générée synthétiquement parlant dans n’importe quelle langue, présentant votre produit ou fournissant un support client. Ces vidéos sont incroyablement réalistes, mais la personne n’existe pas.

ElevenLabs énonce très clairement les règles d’utilisation et de mauvaise utilisation de leur technologie. Ils déclarent explicitement que « vous ne pouvez pas cloner une voix à des fins abusives telles que la fraude, la discrimination, le discours de haine ou pour toute forme d’abus en ligne ». Mais des entreprises moins éthiques lancent également des produits similaires à un rythme soutenu.

Il est plutôt ironique que l’imitation des humains, pour le meilleur ou pour le pire, soit l’une des premières utilisations majeures de l’IA. Alan Turing, le parrain de l’informatique moderne, a créé le test de Turing, qu’il appelait à l’origine le « jeu d’imitation », pour évaluer la capacité d’une IA à tromper un humain en lui faisant croire que c’était réel. La réussite de ce test est rapidement devenue une référence pour le succès d’un développeur d’IA. Maintenant que n’importe qui peut créer des personnes synthétiques d’un simple clic, nous avons besoin d’un test anti-Turing pour établir qui est réel et ce qui est généré.

Comment saurez-vous maintenant, lorsque vous recevez un appel vidéo de votre adolescent demandant des fonds d’urgence pour une année sabbatique, que c’est vraiment lui ? Comment devriez-vous répondre à un message vocal agité qui semble provenir de votre patron vous demandant de virer les fonds de l’entreprise, alors que vous ne pouvez plus être sûr que c’est vraiment lui ? Ces questions ne sont plus hypothétiques.

Heureusement, certains services existent déjà pour relever ce défi. Tout aussi rapidement que ChatGPT a été adopté par des étudiants astucieux pour terminer leurs devoirs, des outils de détection d’IA tels que Originality.ai ont été lancés pour indiquer aux enseignants la probabilité qu’un essai ait en fait été rédigé par l’IA. Des solutions similaires sont en cours de développement pour évaluer si une vidéo est réelle, en s’appuyant sur des erreurs au niveau des pixels qui trahissent même les outils d’IA les plus sophistiqués.

Et de nouvelles initiatives sont lancées. Synthesia fait partie des nombreux membres de la Content Authenticity Initiative, qui a été lancée en 2019 pour fournir aux utilisateurs plus d’informations sur l’origine du contenu qu’ils reçoivent et sur la manière dont il a été créé. Plus controversé, mais peut-être inévitablement, une forme nationale d’identité numérique – un moyen de vérifier si vous parlez à une personne réelle ou à un bot – sera presque certainement nécessaire si vous voulez séparer votre compagnon d’un faux.

Dans l’intervalle, des efforts beaucoup plus importants doivent être déployés pour sensibiliser le public à la sophistication croissante des cybercriminels et à ce qui est désormais possible. Pendant que nous attendons que les gouvernements agissent et qu’une réglementation soit élaborée, il existe un risque beaucoup plus immédiat qu’un millier d’escrocs de l’IA exacerbent le problème de cyberfraude existant en Grande-Bretagne.

Source link -57