Gen-3 Alpha, le modèle de génération IA vidéo de Runway ML, est disponible au grand public
Runway a rendu disponible son modèle de génération de vidéos AI Gen-3 Alpha, promettant des vidéos hyper-réalistes. Toutefois, contrairement aux modèles précédents, Gen-3 Alpha nécessite un abonnement payant.
Il y a quelques semaine, Runway, pionnier dans la génération d'image et de vidéos IA, a annoncé son nouveau modèle avancé : Gen-3 Alpha. Il permet de créer des vidéos AI hyper réalistes à partir de textes. Depuis hier, le modèle est disponible au grand public (à la différence du fameux et très attendu Sora). Contrairement à ses précédents modèles, Gen-1 et Gen-2, Gen-3 Alpha n'est pas gratuit et nécessite un abonnement payant (à partir de 12 $/mois, par éditeur).
Sans plus d'informations sur les sources, Gen-3 Alpha a été entraîné sur des vidéos et images annotées de légendes descriptives. Ce qui permet de produire des clips vidéo aux transitions imaginaire fluides et aux personnages humains à l'expression plutôt juste. Les aperçus dévoilés par RunwayML démontrent une amélioration significative par rapport aux modèles précédents en termes de vitesse, de fidélité, de cohérence et de mouvement.
Gen-3 Alpha, l'arrivée des modèles IA vidéo de plus en plus accessibles ?
L'interface de RunwayML est conçue pour être simple à utiliser par celles et ceux qui n'ont pas de connaissances techniques profondes. L'objectif étant de rendre la création vidéo accessible au plus grand nombre. L'outil offre ainsi un contrôle et une précision avancés et permet de spécifier des détails complexes dans les prompts, comme des descriptions visuelles ou des mouvements de caméra. Les utilisateurs ont ainsi la possibilité d'itérer sur leurs invites pour peaufiner le style et les résultats.
Les vidéos générées peuvent aller jusqu'à 10 secondes avec une vitesse de génération variable. Le processus de génération dure entre 60 et 90 secondes, selon la longueur de la vidéo. Cela représente une amélioration par rapport à la plupart des modèles de vidéo AI actuels (sauf Sora sur le papier, mais il n'est pas encore sorti). Aujourd'hui, le modèle Gen-3 Alpha repose sur le mode text-to-video, mais l'entreprise prévoit d'étendre rapidement les capacités de son modèle à d'autres modes, tels que image-to-video et video-to-vidéo. RunwayML décrit Gen-3 Alpha comme le « premier modèle d'une série à venir », formés sur une nouvelle infrastructure conçue pour l'entraînement multimodal à grande échelle. A tester et à suivre :)
Partagez cet article