El creador de videos impulsado por inteligencia artificial, Runway, ahora ofrece el Gen-3 Alpha Turbo, que mejora el modelo Gen-3 Alpha recientemente lanzado con aún más velocidad en comparación con su predecesor, el modelo Gen-2. La última versión es supuestamente siete veces más rápida y cuesta la mitad que el Gen-3 Alpha, lo que probablemente atraerá a muchos cineastas profesionales y aficionados interesados en la IA.
Como su nombre lo indica, el Gen-3 Alpha Turbo se centra en la velocidad. Según Runway, el tiempo entre enviar una solicitud y ver el video se reduce a casi producción en tiempo real. La idea es ofrecer algo para industrias donde esa velocidad es crucial, como el contenido en redes sociales y la publicidad de actualidad. Sin embargo, hay una compensación en la calidad. Aunque Runway insiste en que los videos del modelo Turbo son esencialmente tan buenos como los del Gen-3 Alpha estándar, la variante no Turbo puede crear imágenes de mayor calidad para el video en su conjunto.
Aun así, el modelo Turbo es tan rápido que el CEO de Runway, Cristóbal Valenzuela, se jactó en X de que “ahora me lleva más tiempo escribir una oración que generar un video”. Los creadores que desean centrarse en planificar y producir videos en lugar de esperar a que se rendericen probablemente encontrarán que el Gen-3 Alpha Turbo se ajusta más a sus necesidades. Esto es aún más atractivo cuando el precio se reduce a la mitad. Un segundo de video cuesta cinco créditos, en comparación con los diez créditos por segundo de un video hecho con el modelo Gen-3 Alpha estándar. Los créditos en Runway se venden en paquetes que comienzan en $10 por 1,000 créditos, por lo que la diferencia es entre 100 segundos de película por $10 o 200 segundos de película por $10. Los interesados también pueden probar el nuevo modelo a través de una prueba gratuita.
La agresiva estrategia de precios y mejoras en el rendimiento de Runway ML llega en un momento en que la compañía enfrenta una fuerte competencia de otros modelos de generación de video con IA. El más notable es el modelo Sora de OpenAI, pero no es el único. Stability AI, Pika, Dream Machine de Luma Labs, y más están compitiendo para llevar modelos de video con IA al público. Incluso la empresa matriz de TikTok, Bytedance, tiene un creador de videos con IA llamado Jimeng, aunque por ahora está limitado a China.
El enfoque de Runway en la velocidad y accesibilidad con el modelo Turbo podría ayudarlo a destacarse en un campo tan concurrido. A continuación, Runway planea mejorar sus modelos con mejores mecanismos de control e incluso interactividad en tiempo real. El modelo Gen-3 Alpha Turbo incorpora muchas de las características que los creadores de videos que experimentan con IA desean. Sin embargo, necesitará ofrecer consistencia para realmente superar a la competencia en la tarea de convertir palabras e imágenes en videos.
Ofrecer consistencia confiable en el diseño de personajes y entornos no es tarea fácil, pero el uso de una imagen inicial como punto de referencia para mantener la coherencia entre diferentes tomas puede ayudar. En Gen-3, la IA de Runway puede crear un video de 10 segundos guiado por movimientos adicionales o indicaciones de texto en la plataforma. Puedes ver cómo funciona en el video a continuación.
La función de imagen a video de Runway no solo asegura que las personas y los fondos se mantengan iguales cuando se ven desde la distancia. Gen-3 también incorpora la función de sincronización labial de Runway, de modo que alguien hablando mueve la boca de una manera que coincide con las palabras que está diciendo. Un usuario puede decirle al modelo de IA lo que quiere que su personaje diga, y el movimiento se animará para coincidir. La combinación de diálogo sincronizado y movimientos realistas de los personajes interesará a muchos desarrolladores de marketing y publicidad que buscan nuevas y, idealmente, más baratas formas de producir videos.
Runway no ha terminado de añadir mejoras a la plataforma Gen-3. El siguiente paso es llevar las mismas mejoras a la opción de video a video. La idea es mantener el mismo movimiento pero en un estilo diferente. Por ejemplo, un humano corriendo por una calle se convierte en un zorro antropomórfico animado corriendo por un bosque. Runway también traerá sus características de control a Gen-3, como Motion Brush, Advanced Camera Controls y Director Mode.
Las herramientas de video con IA aún están en las primeras etapas de desarrollo, con la mayoría de los modelos destacándose en la creación de contenido de formato corto pero teniendo dificultades con narrativas más largas. Eso pone a Runway y sus nuevas características en una posición fuerte desde el punto de vista del mercado, pero no está solo. Midjourney, Ideogram, Leonardo (ahora propiedad de Canva), y otros están compitiendo para crear el generador de video con IA definitivo. Por supuesto, todos están atentos a OpenAI y su generador de video Sora. OpenAI tiene algunas ventajas en cuanto a reconocimiento de nombre, entre otros beneficios. De hecho, Toys”R”Us ya ha hecho un corto comercial usando Sora y lo estrenó en el Festival de Cannes Lions. Aun así, la película sobre generadores de video con IA solo está en su primer acto, y el ganador triunfante al final está lejos de ser inevitable. A medida que la competencia se intensifica, el lanzamiento del Gen-3 Alpha de Runway es un movimiento estratégico para afirmar una posición de liderazgo en el mercado.