[ad_1]
- Une nouvelle tendance impliquant des voix IA de célébrités et de politiciens prend le dessus sur TikTok.
- Il existe de nombreuses vidéos virales de dialogues générés par l’IA entre Joe Biden, Joe Rogan, Donald Trump et Barack Obama.
- Bien que la plupart des vidéos soient bénignes et amusantes, certaines abordent des sujets troublants et pourraient être utilisées pour diffuser de la désinformation.
Au cours du week-end, le compte TikTok @ai.voicesspeech a publié une vidéo présentant des voix générées par algorithme pour Joe Biden, Barack Obama, Donald Trump et d’autres personnalités notables jouant au jeu de déduction sociale « Among Us » et se chamaillant pour savoir qui parmi eux est le méchant imposteur.
« Putain de quoi tu parles? J’étais à Medbay avec Biden », dit la voix de Trump, faisant référence à une pièce du jeu. La vidéo se termine avec la voix AI d’Elon Musk admettant qu’il était le joueur sélectionné comme imposteur et avouant qu’une version AI de George Bush était l’autre.
Des clips comme ceux-ci font partie d’une tendance croissante sur TikTok où les créateurs utilisent l’IA pour imiter des voix et des conversations entre des personnes célèbres qu’ils n’auront peut-être jamais dans la vraie vie. L’idée est de leur faire utiliser l’argot et de parler de sujets dont nous n’entendrons peut-être jamais parler. Bien que la plupart de ce type de contenu soit trolly et bénin, il peut également traverser rapidement un territoire troublant.
Dans une vidéo où une fausse voix de Biden répond au récent incident qui a conduit le gouvernement américain à abattre un ballon exploité par les Chinois, la voix de l’IA est entendue en utilisant une insulte raciste à plusieurs reprises.
« J’ai accumulé mon argent et je suis toujours dans les tranchées », a également déclaré la voix à un moment donné. « Baise avec moi, ouais. »
Une grande majorité des clips les plus populaires sont cependant assez comiques. Le format le plus populaire semble imaginer des personnalités de haut niveau jouant à des jeux vidéo comme « FIFA », « Overwatch » ou « Minecraft ». Les vidéos ont tendance à coller des photos statiques des haut-parleurs sur des séquences de jeu, ce qui donne l’impression qu’ils sont tous en train de jouer ensemble au jeu.
Et entendre Obama ou Biden utiliser l’argot des jeux en ligne est à la fois amusant et choquant, car l’IA simule leur voix avec une telle précision.
« C’est votre garçon Joe Rizzler », a déclaré l’IA Biden dans un clip « Overwatch ». « Mon frère en christ, essaie d’avoir des chiennes pour une fois et descends des héros sans compétence. »
Bien qu’il ne soit pas clair comment certains de ces TikTokers utilisent l’IA pour simuler des voix célèbres, et de nombreux fans le demandent dans leurs sections de commentaires, il existe une technologie disponible pour le faire. Fortune a récemment rapporté que la startup ElevenLabs et sa plateforme de synthèse vocale offrent des outils pour créer un son réaliste à partir de voix humaines. Insider a contacté certains des comptes de mèmes les plus populaires pour se renseigner.
Dans une autre vidéo qui est devenue extrêmement virale, un IA Obama dit que lui et Biden veulent rejoindre le monde « Minecraft » de Trump. Après quelques minutes à se disputer, tout le monde dit qu’il a rejoint le serveur. Mais alors Trump jette immédiatement Biden dans un ravin profond et son personnage meurt.
« Tu vois Donald, c’est pourquoi nous ne voulions pas jouer avec toi la dernière fois », a déclaré AI Biden.
« Vous êtes une bande de bébés, putain de merde », a répondu AI Trump.
Les gens ne sont pas seulement amusés par le faux échange, mais déconcertés par la précision avec laquelle leurs voix sont imitées. « L’IA devient même bonne en termes d’inflexion et d’emphase », a déclaré un des principaux commentateurs.
Certains comptes dédiés aux faux clips vocaux AI ont amassé un grand nombre de followers et des millions de vues sur chaque vidéo. Le créateur @joerizzington compte plus de 160 000 abonnés depuis qu’il a commencé à publier jeudi. Le hashtag #aivoices a accumulé plus de 53 millions de vues cumulées.
Au-delà de la rhétorique troublante que certains créateurs utilisent à mauvais escient ce mème et cette technologie pour générer, il existe également un risque réel de tromper les téléspectateurs involontaires en leur faisant croire de faux messages et de la désinformation.
La semaine dernière, TikTok a supprimé une publicité vidéo virale dans laquelle un Joe Rogan manipulé numériquement semblait défendre un supplément stimulant la libido appelé Alpha Grind. Rogan n’a jamais fait la publicité du produit dans la vraie vie, et un professeur qui figurait également dans l’annonce confirmé sur Twitter il a été trafiqué.
D’autres deepfakes récents, dont celui du président Biden parlant de chars et un autre d’Hillary Clinton lisant des textes transphobes, ont également amené les experts à s’inquiéter de brouiller les lignes entre le vrai et le faux. Ces exemples à fort enjeu ont poussé ElevenLabs à sortir son propre déclaration publiquedisant qu’il essaiera de falsifier les « cas d’utilisation abusive du clonage de la voix ».
[ad_2]
Source link -2