Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Runway, la startup en vogue de l’IA générative, veut révolutionner la création et le montage vidéo.
- Les cinéastes et les créateurs ont utilisé la startup pour rendre le montage vidéo plus efficace.
- Le cofondateur de Runway, Cristóbal Valenzuela, explique comment la plateforme aide les créateurs et sa vision.
Toutes sortes de startups d’IA surgissent avec la promesse de simplifier la création et le montage vidéo.
Mais Runway est l’un des plus en vogue – il a récemment annoncé un cycle de financement de 141 millions de dollars et était évalué à 1,5 milliard de dollars. C’est aussi un favori parmi les VC et les experts de l’économie des créateurs.
« Nous ne sommes pas des investisseurs, mais cet accord est en tête de ma liste » J’aurais aimé avoir un fonds alors « lorsque Runway en était à un stade antérieur », a déclaré Ben Mathews, associé général du fonds axé sur les créateurs Night Ventures. Initié en janvier.
L’idée de Runway est venue de l’expérience des cofondateurs à l’intersection de l’art et de la technologie, et les trois ont créé des outils pour intégrer l’IA dans le cinéma et la création vidéo pendant sept ans, bien avant que l’IA ne devienne un sujet brûlant dans les médias grand public.
Le cofondateur de Runway, Cristóbal Valenzuela, a partagé avec Insider certaines des principales fonctionnalités proposées par la plate-forme, leur développement et la vision de l’entreprise pour l’avenir du cinéma.
Valenzuela a déclaré que les recherches de Runway visent à faciliter la narration de deux manières : aider à « voir le monde » avec le montage vidéo et « générer des choses dans le monde » avec la génération de contenu.
À son stade actuel, Runway compte des clients comme « The Late Show with Stephen Colbert », les artistes VFX derrière le film oscarisé « Everything Everywhere All At Once », ainsi que des créateurs comme MrBeast.
Les fonctionnalités que Runway offre aux créateurs et aux éditeurs
Runway a des fonctionnalités qu’il appelle des « outils magiques IA », qui peuvent non seulement générer des images, mais aussi les agrandir, les faire bouger, mettre des vidéos au ralenti et effacer et remplacer les objets qu’elles contiennent.
Du côté du montage, Runway fonctionne sur navigateur, ce qui a été utile pour Quinn Murphy, un monteur vidéo qui travaille avec la popstar Alicia Keys, pour le montage en déplacement.
Une autre fonctionnalité utilisée par Murphy est « l’écran vert », un outil qui simplifie la rotoscopie, une tâche historiquement chronophage consistant à isoler les sujets dans une vidéo pour changer leur arrière-plan. Dans le montage vidéo traditionnel, cela se ferait image par image, mais l’IA de Runway peut le faire automatiquement.
C’est également l’outil que le créateur de vidéos VFX Kevin Parry a utilisé pour éditer le logo Netflix derrière lui dans l’une de ses vidéos YouTube.
Du côté créatif, Runway a lancé Gen-1, un outil qui permet le montage vidéo à vidéo. Les utilisateurs peuvent télécharger le contenu vidéo qu’ils ont tourné et modifier son style grâce à des invites textuelles, générant efficacement de nouvelles vidéos sans fin.
Par exemple, Martin Haerlin, qui se décrit comme un « réalisateur propulsé par l’IA » sur Instagram, a largement utilisé la création vidéo à vidéo.
« C’est un exemple parfait, la vidéo nécessitait la prise de vue initiale de l’iPhone qu’il avait enregistrée et les invites textuelles », a déclaré Valenzuela. « Il n’y a pas de pré-traitement ni de post-traitement. »
La prochaine étape pour Runway est un modèle texte-vidéo, appelé Gen-2, qui permet la génération de vidéos entières à partir d’une invite de texte. Le produit en est à ses débuts et ne peut actuellement créer que des vidéos rudimentaires – bien que des réalisateurs comme Paul Trillo aient déjà généré des courts métrages avec.
« Pensez-y comme un nouveau type d’appareil photo », a déclaré Valenzuela. « On est au stade de la caméra noir et blanc du début des années 1910. Ça marche, ça capte la lumière, ça permet de voir quelque chose, mais ça reste silencieux, ce n’est pas pour de longues séquences. »
Runway veut développer Gen-2 afin que les utilisateurs puissent générer tout type de contenu, et Valenzuela s’attend à ce que cela change les processus créatifs à partir de zéro.
Cependant, l’objectif de Gen-2 n’est pas de supprimer complètement l’apport humain du processus de création.
« L’idée fausse courante est que les gens pensent que vous allez taper » Obtenez-moi un film Star Wars « et vous générerez un film Star Wars, d’une durée de trois heures, avec rien d’autre qu’un seul texte », a déclaré Valenzuela. « Cela vous permet de le faire plus rapidement parce que vous n’avez peut-être pas besoin d’aller sur place pour tourner, mais vous devez quand même avoir une idée de la façon dont vous voulez assembler les vidéos et du type d’histoire que vous voulez raconter. »