Customize this title in frenchUn Voicebot vient de me laisser sans voix

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsCe n’est pas si difficile de dire mon nom, Saahil Desai. Saahil : rime avec scierie, ou du moins cela vous y amène à 90%. Desaï : comme décider avec le dernier morceau coupé. C’est vraiment ça.Le plus souvent, cependant, mon nom est massacré dans une ménagerie de gaffes et de gaffes. Le plus commun, Sa-talonest au moins une tentative honnête – contrairement à son jumeau mutant, un désordre monosyllabique qui sonne comme joint. D’autres défient toute logique possible. Une fois, un camarade de classe a lu mon nom, a fait une pause, puis a dit avec confiance: « Salut, Seattle. »Mais les erreurs de prononciation qui me dérangent le plus ne sont prononcées par aucun humain. Ils proviennent de robots. Toute la journée, Siri lit mes SMS à travers les AirPods coincés dans mes oreilles – et mutile mon nom en Sa-hein. Il s’en sort mieux que le service d’intelligence artificielle que j’utilise pour transcrire des interviews, qui m’a identifié par une série de noms qui semblent dépouillés d’un boys band britannique raté (Nigel, Sal, Michael, Daniel, Scott Hill). La Silicon Valley aspire à ce que ses produits changent le monde, mais cela signifie évidemment aussi changer de nom. Ou du moins c’est ce que je pensais. Écoute ça:Saahil Desai · Eleven LabsC’est une voix IA nommée Adam d’ElevenLabs, une start-up spécialisée dans le clonage de voix. (C’est un peu comme le DALL-E de l’audio.) Ce bot ne dit pas seulement bien mon nom ; il dit mon nom mieux que moi. Après tout, Saahil vient du sanskrit, une langue que je ne parle pas. Le résultat final est un coup de dopamine de familiarité, une sensation incroyable qui est comme l’équivalent technologique de trouver un porte-clés souvenir avec votre nom dessus.En plus des chatbots qui peuvent écrire des haïkus et des artbots qui peuvent rendre une pizza dans le style de Picasso, la révolution de l’IA générative a libéré des voicebots qui peuvent enfin clouer mon nom. Tout comme ChatGPT apprend des publications sur Internet, ElevenLabs a formé ses voix sur un énorme volume de clips audio pour comprendre comment parler comme les gens le font – au moins 500 000 heures, contre des dizaines ou des centaines d’heures d’audio avec les modèles vocaux précédents. « Nous avons passé les deux dernières années à développer un nouveau modèle fondamental pour la parole », a écrit Mati Staniszewski, PDG d’ElevenLabs, dans un e-mail. « Cela signifie que notre modèle est sensible au contexte et indépendant de la langue et donc mieux à même de capter les nuances comme les noms, ainsi que de fournir l’intonation et les émotions qui reflètent l’entrée textuelle. » Les données qui font partie des nouveaux robots vocaux peuvent inclure un certain nombre de sites Web dédiés à la prononciation des choses, et si quelqu’un a correctement dit votre nom dans un livre audio, un podcast ou une vidéo YouTube, les nouveaux modèles d’IA peuvent l’avoir.Des entreprises telles qu’Amazon, Google, Meta et Microsoft développent également des robots vocaux plus avancés, bien qu’ils soient encore mélangés. J’ai testé la même phrase – « Allez, ce n’est pas si difficile de dire Saahil Desai » – sur les programmes vocaux d’IA de chacun d’eux. Ils pouvaient tous gérer Desai, mais je n’ai pas été accueilli par un chœur de prononciations parfaites de Saahil. Le logiciel Polly d’Amazon, peut-être même pire que Siri, pense que mon nom ressemble à Saaaaal :Saahil Desai · Amazon PollyGoogle Cloud et Microsoft Azure étaient tous deux inoffensifs mais pas parfaits, transformant légèrement Saahil en quelque chose d’étranger reconnaissable. Rien ne pouvait battre ElevenLabs, mais Voicebox, un outil inédit de Meta que la société a récemment présenté comme une « percée dans l’IA générative pour la parole », s’est rapproché :Saahil Desai · Meta VoiceboxLes ordinateurs peuvent désormais prononcer tellement plus de noms que le mien. « J’ai remarqué la même chose l’autre jour lorsque mon élève et moi avons créé un enregistrement sur ElevenLabs d’Anderson Cooper de CNN disant » Le professeur Hany Farid est un plongeon complet et total ** t « (c’est une longue histoire) « , Hany Farid, un Informaticien de l’UC Berkeley, a écrit dans un e-mail. « J’ai été surpris de voir à quel point il prononçait mon nom. J’ai aussi remarqué qu’il prononce correctement les noms de mes étudiants non américains. D’autres noms délicats que j’ai testés se sont également bien comportés: ElevenLabs a cloué Lupita Nyong’o et Timothée Chalamet, bien qu’il ait transformé le nom de famille du pauvre Pete Buttigieg en un Buttygig très malheureux.Que les voix de l’IA puissent désormais dire des noms inhabituels n’est pas une mince affaire. Ils font face aux mêmes luttes de prononciation qui laissent de nombreux humains perplexes ; des noms comme Giannis Antetokounmpo ne respectent pas les règles de l’anglais, alors que même un nom plus simple peut avoir plusieurs prononciations (Etrea ou Etrea?) ou orthographes (Michaela? Mikayla? Mikayla? Michela?). Un nom peut toujours tomber à plat à nos oreilles si la couleur et la texture d’une voix d’IA sonnent plus HAL 9000 que l’humain, a déclaré Farid.Les générations précédentes d’assistants vocaux – Siri, Alexa, Google Assistant, le GPS de votre voiture – n’avaient tout simplement pas assez d’informations pour franchir toutes ces étapes. (Dans certains cas, vous pouvez fournir ces informations vous-même : un porte-parole d’Apple m’a dit que vous pouvez saisir manuellement l’orthographe phonétique d’un nom dans l’application Contacts pour modifier la façon dont Siri le lit.) Au fil des ans, cette technologie « a vraiment plafonné ». », a écrit Farid. « C’était vraiment difficile de traverser cette étrange vallée où c’est un peu humain, mais aussi un peu bizarre. Et puis ça a juste explosé à travers la porte. Les progrès des techniques d’« apprentissage en profondeur » inspirées du cerveau humain permettent de repérer plus facilement les modèles de hauteur, de rythme et d’intonation.C’est l’étrange contradiction de l’IA en ce moment : même si cette technologie est sujette à des biais qui peuvent aliéner les utilisateurs (les assistants vocaux identifient plus fréquemment les mots des locuteurs noirs que des locuteurs blancs), elle peut également aider à faire apparaître de plus petits sentiments d’aliénation qui bouillonnent. Entendre constamment des bots bousiller mon nom est une indignité numérique qui me rappelle que mes appareils ne semblent pas faits pour moi, même si Saahil Desai est un nom commun en Inde. Mon iPhone 12 bleu est une dalle de six pouces qui contient plus de moi que toute autre chose dans ma vie. Et pourtant, cela bousille encore la chose la plus fondamentale de mon identité.Mais un monde dans lequel les bots peuvent comprendre et dire mon nom, et le vôtre, est aussi étrange. ElevenLabs est la même technologie de clonage de voix qui a été utilisée pour créer des deepfakes crédibles – d’un grossier Taylor Swift, de Joe Rogan et Ben Shapiro débattant Ratatouilled’Emma Watson lisant une section de Mein Kampf. Une escroquerie par IA prétendant être quelqu’un que vous connaissez est beaucoup plus crédible lorsque la voix à l’autre bout peut dire votre nom comme le font vos proches.Une fois qu’il est devenu évident que je ne pouvais pas arrêter ElevenLabs, j’ai inscrit mon deuxième prénom, Abhijit. Il en est sorti un terrible gâchis de syllabes qui ne me tromperait jamais. D’accord : j’avoue que c’est en fait assez difficile de dire Saahil Abhijit Desai.

Source link -57