Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Un nouvel outil d’OpenAI capable de générer un clone convaincant de la voix de n’importe qui en utilisant seulement 15 secondes d’audio enregistré a été jugé trop risqué pour une diffusion générale, alors que le laboratoire d’IA cherche à minimiser la menace de désinformation préjudiciable au cours d’une année mondiale d’élections.
Voice Engine a été développé pour la première fois en 2022 et une première version a été utilisée pour la fonctionnalité de synthèse vocale intégrée à ChatGPT, le principal outil d’IA de l’organisation. Mais sa puissance n’a jamais été révélée publiquement, en partie à cause de l’approche « prudente et éclairée » adoptée par OpenAI pour le diffuser plus largement.
« Nous espérons entamer un dialogue sur le déploiement responsable des voix synthétiques et sur la manière dont la société peut s’adapter à ces nouvelles capacités », a déclaré OpenAI dans un article de blog non signé. « Sur la base de ces conversations et des résultats de ces tests à petite échelle, nous prendrons une décision plus éclairée quant à l’opportunité et à la manière de déployer cette technologie à grande échelle. »
Dans son message, la société a partagé des exemples d’utilisations concrètes de la technologie par divers partenaires qui y ont eu accès pour l’intégrer dans leurs propres applications et produits.
La société de technologie éducative Age of Learning l’utilise pour générer des voix off scénarisées, tandis que l’application de « narration visuelle IA » HeyGen offre aux utilisateurs la possibilité de générer des traductions de contenu enregistré d’une manière fluide tout en préservant l’accent et la voix de l’orateur d’origine. Par exemple, générer de l’anglais avec un échantillon audio d’un locuteur français produit une parole avec un accent français.
Notamment, des chercheurs du Norman Prince Neurosciences Institute de Rhode Island ont utilisé un clip de mauvaise qualité de 15 secondes d’une jeune femme faisant une présentation dans le cadre d’un projet scolaire pour « restaurer la voix » qu’elle avait perdue à cause d’une tumeur cérébrale vasculaire.
« Nous choisissons de prévisualiser cette technologie mais de ne pas la diffuser à grande échelle pour le moment », a déclaré OpenAI, afin de « renforcer la résilience sociétale face aux défis posés par des modèles génératifs toujours plus convaincants ». Dans l’immédiat, il a déclaré : « Nous encourageons des mesures telles que la suppression progressive de l’authentification vocale comme mesure de sécurité pour l’accès aux comptes bancaires et autres informations sensibles. »
OpenAI a également appelé à explorer « des politiques visant à protéger l’utilisation de la voix des individus dans l’IA » et à « éduquer le public pour qu’il comprenne les capacités et les limites des technologies d’IA, y compris la possibilité de contenus d’IA trompeurs ».
Les générations du moteur vocal sont filigranées, a déclaré OpenAI, ce qui permet à l’organisation de retracer l’origine de tout audio généré. Actuellement, ajoute-t-il, « nos conditions avec ces partenaires nécessitent le consentement explicite et éclairé de l’orateur d’origine et nous n’autorisons pas les développeurs à créer des moyens permettant aux utilisateurs individuels de créer leurs propres voix ».
Mais si l’outil d’OpenAI se distingue par sa simplicité technique et la petite quantité d’audio original requise pour générer un clone convaincant, des concurrents sont déjà accessibles au public.
Avec seulement « quelques minutes d’audio », des sociétés telles que ElevenLabs peuvent générer un clone vocal complet. Pour tenter d’atténuer les dommages, la société a introduit une protection contre les voix interdites, conçue pour détecter et empêcher la création de clones de voix « qui imitent les candidats politiques activement impliqués dans les élections présidentielles ou ministérielles, à commencer par celles des États-Unis et du premier ministre ». la Grande-Bretagne ».