Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsL’IA Taylor Swift est folle. Elle appelle Kim Kardashian pour se plaindre de sa « méchante excuse de mari », Kanye West. (Kardashian et West sont, en réalité, divorcés.) Elle menace de sauter l’Europe lors de sa tournée Eras si ses fans n’arrêtent pas de lui poser des questions sur les dates internationales. Elle insulte les gens qui n’ont pas les moyens d’acheter des billets pour ses concerts et utilise une quantité inhabituelle de blasphèmes. Elle est un peu grossière.Mais elle peut aussi être très douce. Elle donne un discours d’encouragement à la vanille: «Si vous passez une mauvaise journée, sachez simplement que vous êtes aimé. N’abandonnez pas ! Et elle a juste aime la tenue que tu portes à son concert.Elle est aussi une création de fan. Sur la base de tutoriels publiés sur TikTok, de nombreux Swifities utilisent un programme pour créer des extraits sonores hyperréalistes en utilisant la voix de Swift, puis les font circuler sur les réseaux sociaux. L’outil, dont la version bêta a été lancée fin janvier par ElevenLabs, propose « Instant Voice Cloning ». En effet, il vous permet de télécharger un échantillon audio de la voix d’une personne et de lui faire dire ce que vous voulez. Ce n’est pas parfait, mais c’est plutôt bien. L’audio a quelques problèmes de tonalité ici et là, mais il a tendance à sembler assez naturel, assez proche pour vous tromper si vous ne faites pas assez attention. Les coins sombres d’Internet l’ont immédiatement utilisé pour faire dire des choses injurieuses ou racistes aux célébrités ; ElevenLabs a déclaré en réponse qu’il « peut retracer tout son généré jusqu’à l’utilisateur » et envisagerait d’ajouter plus de garde-corps– comme la vérification manuelle de chaque soumission.Que ce soit fait, cela n’est pas clair. Après avoir déboursé plus de 1 $ pour essayer la technologie moi-même – un tarif réduit pour le premier mois – mon téléchargement a été approuvé presque instantanément. La partie la plus lente du processus consistait à trouver un clip audio clair d’une minute de Swift à utiliser comme source pour ma voix AI personnalisée. Une fois que cela a été approuvé, j’ai pu l’utiliser pour créer immédiatement de faux sons. L’ensemble du processus a pris moins de cinq minutes. ElevenLabs a refusé de commenter ses politiques ou la possibilité d’utiliser sa technologie pour simuler la voix de Taylor Swift, mais il a fourni un lien vers ses directives sur le clonage de la voix. La société a dit Le New York Times plus tôt ce mois-ci qu’il souhaite créer un « système de détection universel » en collaboration avec d’autres développeurs d’IA.L’arrivée de l’IA Taylor Swift ressemble à un avant-goût de ce qui s’en vient dans une nouvelle ère étrange définie par les médias synthétiques, où les frontières entre le vrai et le faux pourraient devenir insignifiantes. Pendant des années, les experts ont prévenu que l’IA nous mènerait à un avenir de désinformation infinie. Maintenant, ce monde est là. Mais malgré les attentes apocalyptiques, le fandom Swift se porte très bien (pour l’instant). AI Taylor nous montre comment la culture humaine peut évoluer parallèlement à une technologie de plus en plus complexe. Les Swifties, pour la plupart, ne semblent pas utiliser l’outil de manière malveillante : ils l’utilisent pour jouer et faire des blagues entre eux. Donner cet outil aux fans, c’est « comme leur donner un nouveau type de crayon ou de pinceau », explique Andrea Acosta, titulaire d’un doctorat. candidat à UCLA qui étudie la K-pop et son fandom. Ils explorent des utilisations créatives de la technologie, et quand quelqu’un semble aller trop loin, d’autres membres de la communauté n’ont pas peur de le dire.Lire : Bienvenue dans le grand flouÀ certains égards, les fans pourraient être particulièrement bien préparés pour l’avenir fabriqué : ils ont eu des conversations sur l’éthique d’utiliser de vraies personnes dans la fan fiction pendant des années. Et bien que chaque fandom soit différent, les chercheurs affirment que ces communautés ont tendance à avoir leurs propres normes et à s’autoréguler. Ils peuvent être parmi les enquêteurs les plus diligents d’Internet. Les fans de K-pop, m’a dit Acosta, sont si doués pour analyser ce qui est réel et ce qui est faux qu’ils parviennent parfois à empêcher la désinformation sur leur artiste préféré de circuler. Les fans de BTS, par exemple, sont connus pour dénoncer des inexactitudes factuelles dans des articles publiés sur Twitter.Les possibilités pour les fans suggèrent un côté plus léger de l’audio et de la vidéo produits par l’IA générative. « Là [are] beaucoup de craintes – et beaucoup d’entre elles sont très justifiées – à propos des deepfakes et de la façon dont l’IA va en quelque sorte jouer avec notre perception de ce qu’est la réalité », Paul Booth, professeur à l’Université DePaul qui a étudié les fandoms et la technologie pendant deux décennies, m’a dit. « Ces fans illustrent en quelque sorte différents éléments de cela, à savoir le caractère ludique de la technologie et la façon dont elle peut toujours être utilisée de manière amusante et peut-être plus engageante. »Mais la propagation virale d’AI Taylor Swift sur TikTok ajoute une ride à cette dynamique. C’est une chose de débattre de l’éthique de la soi-disant fiction en personne réelle parmi les fans dans un coin cloisonné d’Internet, mais sur une plate-forme aussi vaste et conçue de manière algorithmique, le contenu peut atteindre instantanément un large public. Les Swifties jouant avec cette technologie partagent une base de connaissances, mais les autres téléspectateurs ne le peuvent pas. « Ils savent ce qu’elle a dit et ce qu’elle n’a pas dit, n’est-ce pas ? Ils sont presque immédiatement capables de chronométrer, D’accord, c’est une IA ; elle n’a jamais dit ça», m’a dit Lesley Willard, directrice du programme du Center for Entertainment and Media Industries de l’Université du Texas à Austin. « C’est quand ils quittent cet espace que cela devient plus préoccupant. »Les Swifties sur TikTok établissent déjà des normes concernant l’IA vocale, basées au moins en partie sur ce que Swift elle-même pourrait en ressentir. « Si un tas de gens commencent à dire: » Peut-être que ce n’est pas une bonne idée. Cela pourrait l’affecter négativement », m’a dit Riley, un TikTok Swiftie de 17 ans,« la plupart des gens prennent vraiment cela à cœur. Maggie Rossman, professeur à l’Université de Bellarmine qui étudie le fandom Swift, pense que si Taylor devait se prononcer contre des extraits sonores spécifiques ou certaines utilisations de la voix de l’IA, alors « nous le verrions fermé parmi une bonne partie du fandom .”Mais c’est un territoire difficile pour les artistes. Ils ne veulent pas nécessairement écraser la créativité de leurs fans et le sens de la communauté qu’elle crée – la culture des fans est bonne pour les affaires. Dans le nouveau monde, ils devront naviguer dans la tension entre autoriser certains remix tout en conservant la propriété de leur voix et de leur réputation.Un représentant de Swift n’a pas répondu à une demande de commentaire sur la façon dont elle et son équipe pensent de cette technologie, mais les fans sont convaincus qu’elle écoute. Après que son compte officiel TikTok ait « aimé » une vidéo en utilisant la voix de l’IA, un commentateur s’est exclamé, « ELLE A ENTENDU L’AUDIO », suivi de trois emoji en pleurs.TikTok, pour sa part, vient de publier de nouvelles directives communautaires pour les médias synthétiques. « Nous nous félicitons de la créativité que la nouvelle intelligence artificielle (IA) et d’autres technologies numériques peuvent débloquer », indiquent les lignes directrices. « Cependant, l’IA peut rendre plus difficile la distinction entre réalité et fiction, comportant à la fois des risques sociétaux et individuels. » La plate-forme n’autorise pas les recréations par l’IA de personnes privées, mais donne « plus de latitude » aux personnalités publiques, tant que les médias sont identifiés comme étant générés par l’IA et adhèrent aux autres politiques de contenu de l’entreprise, y compris celles concernant la désinformation.Mais les fans de Swift qui repoussent les limites ne peuvent probablement causer que beaucoup de mal. Ils pourraient détruire Ticketmaster, bien sûr, mais il est peu probable qu’ils provoquent l’armageddon de l’IA. Booth pense à tout cela en termes de « degrés d’inquiétude ». »Mon inquiétude pour le fandom est, comme, Oh, les gens vont être confus et contrariés, et cela peut causer du stress, » il a dit. « Mon inquiétude avec [an AI fabrication of President Joe] Biden est, comme, Cela pourrait provoquer…
Source link -57