El creador de videos con inteligencia artificial, Runway, ha añadido la función prometida de imagen a video en su modelo Gen-3, lanzado hace unas semanas, y parece ser tan impresionante como se esperaba. Runway ha mejorado esta característica para abordar las mayores limitaciones del modelo Gen-2, lanzado a principios del año pasado. La herramienta actualizada es mucho mejor en consistencia de personajes e hiperrealismo, convirtiéndose en una herramienta más poderosa para los creadores que buscan producir contenido de video de alta calidad.
El modelo Gen-3 de Runway aún está en fase de prueba alfa y solo está disponible para suscriptores que pagan $12 al mes por editor en el paquete más básico. El nuevo modelo ya había atraído mucho interés incluso cuando solo ofrecía capacidades de texto a video. Sin embargo, no importa cuán bueno sea un motor de texto a video, tiene limitaciones inherentes, especialmente en lo que respecta a que los personajes en un video se vean iguales en múltiples indicaciones y parezcan estar en el mundo real. Sin continuidad visual, es difícil crear cualquier tipo de narrativa. En iteraciones anteriores de Runway, los usuarios a menudo luchaban por mantener uniformes los personajes y escenarios en diferentes escenas al depender únicamente de indicaciones de texto.
Ofrecer consistencia confiable en el diseño de personajes y entornos no es poca cosa, pero el uso de una imagen inicial como punto de referencia para mantener la coherencia en diferentes tomas puede ayudar. En Gen-3, la IA de Runway puede crear un video de 10 segundos guiado por indicaciones adicionales de movimiento o texto en la plataforma.
La función de imagen a video de Runway no solo asegura que las personas y los fondos se mantengan iguales cuando se ven desde la distancia. Gen-3 también incorpora la función de sincronización labial de Runway, de modo que alguien que habla mueve la boca de una manera que coincide con las palabras que está diciendo. Un usuario puede decirle al modelo de IA lo que quiere que su personaje diga, y el movimiento se animará para coincidir. La combinación de diálogo sincronizado y movimientos realistas de personajes interesará a muchos desarrolladores de marketing y publicidad que buscan nuevas formas, idealmente más económicas, de producir videos.
Runway no ha terminado de agregar funciones a la plataforma Gen-3. El siguiente paso es llevar las mismas mejoras a la opción de video a video. La idea es mantener el mismo movimiento pero en un estilo diferente. Un humano corriendo por una calle se convierte en un zorro antropomórfico animado corriendo por un bosque, por ejemplo. Runway también llevará sus funciones de control a Gen-3, como Motion Brush, Advanced Camera Controls y Director Mode.
Las herramientas de video con IA aún están en las primeras etapas de desarrollo, con la mayoría de los modelos destacándose en la creación de contenido de formato corto pero luchando con narrativas más largas. Eso pone a Runway y sus nuevas características en una posición fuerte desde el punto de vista del mercado, pero no está solo. Midjourney, Ideogram, Leonardo (ahora propiedad de Canva) y otros están compitiendo para crear el generador de video con IA definitivo. Por supuesto, todos están atentos a OpenAI y su generador de video Sora. OpenAI tiene algunas ventajas en reconocimiento de nombre, entre otros beneficios. De hecho, Toys”R”Us ya ha hecho un comercial de cortometraje usando Sora y lo estrenó en el Festival de Cannes Lions. Aún así, la película sobre generadores de video con IA está solo en su primer acto, y el ganador triunfante que celebra en cámara lenta al final está lejos de ser inevitable.