La empresa de inteligencia artificial Runway ha lanzado oficialmente su nuevo modelo Gen-3 Alpha, después de haberlo anunciado hace unas semanas. Este creador de videos ofrece mejoras significativas en la creación de videos hiperrealistas a partir de indicaciones de los usuarios. Es un avance importante en comparación con el modelo Gen-2 lanzado a principios del año pasado.
El Gen-3 Alpha de Runway está dirigido a una variedad de creadores de contenido, incluidos grupos de marketing y publicidad. La startup afirma superar a cualquier competencia en la gestión de transiciones complejas, así como en la creación de personajes humanos con rostros expresivos. El modelo fue entrenado con un gran conjunto de datos de videos e imágenes anotados con descripciones detalladas, lo que le permite generar clips de video altamente realistas. Hasta el momento, la empresa no ha revelado las fuentes de sus conjuntos de datos de video e imagen.
El nuevo modelo está disponible para todos los usuarios registrados en la plataforma RunwayML, pero a diferencia de Gen-1 y Gen-2, Gen-3 Alpha no es gratuito. Los usuarios deben actualizar a un plan de pago, con precios que comienzan en $12 por mes por editor. Este movimiento sugiere que Runway está listo para profesionalizar sus productos después de haber tenido la oportunidad de refinarlos gracias a todos los usuarios que probaron los modelos gratuitos.
Inicialmente, Gen-3 Alpha impulsará el modo de texto a video de Runway, permitiendo a los usuarios crear videos utilizando indicaciones en lenguaje natural. En los próximos días, las capacidades del modelo se expandirán para incluir modos de imagen a video y video a video. Además, Gen-3 Alpha se integrará con las funciones de control de Runway, como Motion Brush, Advanced Camera Controls y Director Mode.
Runway declaró que Gen-3 Alpha es solo el primero en una nueva línea de modelos construidos para entrenamiento multimodal a gran escala. El objetivo final es lo que la empresa llama “Modelos Generales del Mundo”, que serán capaces de representar y simular una amplia gama de situaciones e interacciones del mundo real.
La pregunta inmediata es si los avances de Runway pueden igualar o superar lo que OpenAI está haciendo con su modelo Sora. Mientras que Sora promete videos de un minuto de duración, Gen-3 Alpha actualmente soporta clips de video de hasta 10 segundos. A pesar de esta limitación, Runway apuesta por la velocidad y calidad de Gen-3 Alpha para destacarse de Sora, al menos hasta que puedan mejorar el modelo para producir videos más largos.
La competencia no se limita solo a Sora. Stability AI, Pika, Luma Labs y otros también están ansiosos por reclamar el título de mejor creador de videos con inteligencia artificial. A medida que la competencia se intensifica, el lanzamiento de Gen-3 Alpha por parte de Runway es un movimiento estratégico para afirmar una posición de liderazgo en el mercado.