Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsCe mois-ci, une station d’information télévisée locale en Arizona a publié un reportage troublant : une mère nommée Jennifer DeStefano dit qu’elle a décroché le téléphone au son de sa fille de 15 ans qui l’appelait et qu’on lui a demandé de payer 1 $ million de rançon pour le retour de sa fille. En réalité, l’adolescent n’avait pas été kidnappé et était en sécurité; DeStefano pense que quelqu’un a utilisé l’IA pour créer une réplique de la voix de sa fille à déployer contre sa famille. « C’était complètement sa voix », a-t-elle déclaré dans une interview. « C’était son inflexion. C’était comme ça qu’elle aurait pleuré. L’histoire de DeStefano a depuis été reprise par d’autres médias, tandis que des histoires similaires d’escroqueries vocales d’IA ont fait surface sur TikTok et ont été rapportées par Le Washington Post. Fin mars, la Federal Trade Commission a averti les consommateurs que de mauvais acteurs utilisent la technologie pour suralimenter les «plans d’urgence familiale», des escroqueries qui simulent une urgence pour tromper un être cher inquiet en lui demandant de l’argent ou des informations privées.De telles applications existent depuis un certain temps – mon collègue Charlie Warzel a trompé sa mère avec un programme rudimentaire de clonage de voix par IA en 2018 – mais elles sont devenues meilleures, moins chères et plus accessibles au cours des derniers mois parallèlement au boom de l’IA générative. Maintenant, n’importe qui avec un dollar, quelques minutes et une connexion Internet peut synthétiser la voix d’un étranger. Ce qui est en jeu, c’est notre capacité en tant que personnes ordinaires à croire que les voix de ceux avec qui nous interagissons de loin sont légitimes. Nous pourrions bientôt être dans une société où vous ne savez pas nécessairement que tout appel de votre mère ou de votre patron provient en fait de votre mère ou de votre patron. Nous ne sommes peut-être pas à un point critique pour la fraude vocale, mais il est facile d’en voir une à l’horizon. Certains experts disent qu’il est temps d’établir des systèmes avec vos proches pour vous prémunir contre la possibilité que vos voix soient synthétisées – des mots codés ou une sorte d’authentification humaine à deux facteurs.Un moyen simple de lutter contre une telle supercherie serait de désigner un mot avec vos contacts qui pourrait être utilisé pour vérifier votre identité. Vous pouvez, par exemple, établir que toute demande urgente d’argent ou d’informations sensibles doit inclure le terme Bisque de homard. Le Poste’s Megan McCardle a fait ce cas dans une histoire hier, l’appelant un «mot de sécurité AI». Hany Farid, professeur à l’UC Berkeley School of Information, m’a dit qu’il était fan de l’idée. « C’est tellement low-tech », m’a-t-il dit. « Vous avez cette technologie de pointe – le clonage de la voix – et vous vous dites : ‘C’est quoi le mot de code, connard ?' »Mais il faut aussi se méfier de devenir paranoïaque trop vite. Une perte de confiance plus large dans tout audio, ou vidéo d’ailleurs, pourrait alimenter le «dividende du menteur», ou l’idée qu’une plus grande connaissance publique des contrefaçons peut permettre aux mauvais acteurs de saper plus facilement les médias légitimes. L’Amérique n’a pas exactement un excédent de confiance en ce moment : la foi dans les médias et les institutions, y compris la religion organisée et les écoles publiques, fait des sondages misérables, en même temps que l’IA amplifie la capacité de diffuser de fausses informations en ligne. « Nous voulons que les gens soient conscients de ce qui est possible », m’a dit Henry Ajder, un expert en IA qui étudie la technologie de la voix synthétique depuis une demi-décennie. « Nous ne voulons pas non plus terrifier absolument les gens. » Si vous recevez un appel inhabituel, vous pouvez toujours rester calme et poser des questions de bon sens auxquelles vos proches devraient savoir répondre, a déclaré Ajder.Au-delà des anecdotes, les données sur les escroqueries vocales par IA sont pratiquement inexistantes. Juliana Gruenwald, porte-parole de la FTC, m’a dit que l’agence ne suit pas la fréquence à laquelle l’IA ou le clonage de la voix est utilisé dans les escroqueries. Les statistiques sur les rapports de fraude pour les trois premiers mois de cette année ne montrent pas d’augmentation du nombre d’escroqueries impliquant l’usurpation d’identité de la famille et des amis. Le FBI, qui conserve également des données sur les escroqueries téléphoniques, n’a pas répondu à une demande de commentaire.Lire : L’essor de l’IA Taylor SwiftPourtant, il y a clairement un risque réel ici. Le mois dernier, pour une histoire sur la prolifération de tels clones sur TikTok, j’ai reproduit la voix de Taylor Swift en utilisant seulement une minute d’audio d’elle parlant dans une ancienne interview sur YouTube. Cela a pris cinq minutes et coûté 1 $ en utilisant l’outil en ligne Instant Voice Cloning d’ElevenLabs. (La société n’a pas répondu à une demande de commentaire sur la façon dont son logiciel pourrait être utilisé dans des escroqueries.) Tout ce dont le programme a besoin est un court clip audio de la personne qui parle : Téléchargez-le, et l’IA fera le reste. Et vous n’avez pas besoin d’être une personnalité en vue pour être vulnérable. Cela prend simplement un clip audio public de vous, peut-être tiré d’un TikTok ou d’un post Instagram ou d’un vlog YouTube, et n’importe qui peut créer un modèle d’IA de votre voix qu’il peut utiliser comme bon lui semble. Nos historiques numériques étendus, construits au fil des années de vie en ligne, peuvent être utilisés contre nous.Bien que la technologie donne l’impression d’être tirée d’un roman de Philip K. Dick, il s’agit, en un sens, d’une histoire américaine classique sur l’incertitude d’une nouvelle frontière. L’historienne Susan Pearson, qui a écrit Le certificat de naissance : une histoire américaine, m’a dit que lorsque de plus en plus d’Américains ont commencé à quitter la campagne pour les villes au milieu du XIXe siècle, le pays a développé « une véritable fascination culturelle » pour les escrocs et une « angoisse d’être dans ces nouveaux grands espaces, où toutes sortes d’étrangers sont allez interagir et vous ne savez pas nécessairement à qui vous pouvez faire confiance. Nous avons développé des technologies comme les cotes de crédit, pour le meilleur ou pour le pire, afin de savoir avec qui nous faisions affaire. L’étendue de l’Internet alimenté par l’IA est peut-être un corollaire de cette peur antérieure.Nous sommes dans une période de changement, essayant de comprendre les avantages et les coûts de ces outils. « Je pense que c’est l’un de ces cas où nous l’avons construit parce que nous le pouvions et/ou parce que nous pouvons en tirer de l’argent », a déclaré Farid. « Et peut-être que personne ne s’est arrêté pour se demander s’il devait le faire. » Il existe des cas d’utilisation légitimes pour le clonage de la voix : cela pourrait, par exemple, permettre à une personne qui a perdu sa capacité ou qui a perdu sa capacité d’utiliser sa propre voix. En 2021, AI a aidé l’acteur Val Kilmer à utiliser sa voix lorsqu’il a perdu sa capacité naturelle à parler à la suite d’un cancer de la gorge. Mais les utilisations bénéfiques ne nécessitent pas nécessairement un accès non réglementé et gratuit pour tous, a souligné Farid.De nombreux critiques de l’IA ont dit que nous devrions ralentir et réfléchir un peu plus à ce que la technologie pourrait déclencher si elle était laissée à elle-même. Le clonage de la voix semble être un domaine dans lequel nous devrions vraiment le faire. Peut-être que les humains évolueront aux côtés de l’IA et créeront de nouvelles technologies de vérification qui nous aideront à restaurer la confiance, mais fondamentalement, une fois que nous commençons à douter que la personne à l’autre bout de la ligne soit vraiment la personne que nous voulons qu’elle soit, nous sommes entrés dans un processus entièrement nouveau monde. Peut-être y sommes-nous déjà.
Source link -57