OpenAI no ha revelado exactamente qué datos utilizó para entrenar a Sora, su inteligencia artificial que genera videos. Sin embargo, parece que algunos de esos datos podrían provenir de transmisiones de Twitch y guías de juegos. Sora fue lanzada el lunes, y he estado experimentando con ella, aunque ha habido problemas de capacidad. A partir de un texto o imagen, Sora puede generar videos de hasta 20 segundos en diferentes formatos y resoluciones.
Cuando OpenAI presentó Sora en febrero, mencionó que entrenó el modelo con videos de Minecraft. Esto me llevó a preguntarme qué otros juegos podrían estar en su conjunto de entrenamiento. Al parecer, hay varios. Sora puede crear un video que es esencialmente un clon de Super Mario Bros. (aunque con fallos). También puede generar imágenes de un juego de disparos en primera persona que parece inspirado en Call of Duty y Counter-Strike. Además, puede mostrar un clip de un juego de lucha al estilo de un juego de las Tortugas Ninja de los años 90.
Sora también parece entender cómo debería lucir una transmisión de Twitch, lo que sugiere que ha visto algunas. Una captura de pantalla generada muestra a Raúl Álvarez Genes, conocido como Auronplay, con detalles como un tatuaje en su antebrazo izquierdo. Auronplay no es el único streamer de Twitch que Sora parece “conocer”; también generó un video de un personaje similar a Imane Anys, conocida como Pokimane.
Es importante mencionar que tuve que ser creativo con algunos de los comandos (por ejemplo, “juego de fontanero italiano”). OpenAI ha implementado filtros para evitar que Sora genere clips con personajes protegidos por derechos de autor. Por ejemplo, escribir “gameplay de Mortal Kombat 1” no producirá nada parecido al título.
OpenAI ha sido reservada sobre la procedencia de sus datos de entrenamiento. En una entrevista con The Wall Street Journal, la entonces CTO de OpenAI, Mira Murati, no negó que Sora se entrenara con contenido de YouTube, Instagram y Facebook. En las especificaciones técnicas de Sora, OpenAI reconoció que utilizó datos “disponibles públicamente”, además de datos licenciados de bibliotecas de medios como Shutterstock.
Si el contenido de juegos está realmente en el conjunto de entrenamiento de Sora, esto podría tener implicaciones legales, especialmente si OpenAI desarrolla experiencias interactivas basadas en Sora. Joshua Weigensberg, un abogado de propiedad intelectual, advirtió que las empresas que entrenan modelos de IA con material no licenciado enfrentan muchos riesgos. “Entrenar un modelo de IA generativa generalmente implica copiar los datos de entrenamiento. Si esos datos son videos de juegos, es muy probable que se incluyan materiales protegidos por derechos de autor”.
Los modelos de IA generativa como Sora son probabilísticos. Se entrenan con muchos datos y aprenden patrones para hacer predicciones. Esto les permite “aprender” cómo funciona el mundo, pero también puede ser un punto débil. Cuando se les solicita de una manera específica, muchos modelos producen copias cercanas de sus ejemplos de entrenamiento. Esto ha descontentado a los creadores cuyos trabajos han sido utilizados sin su permiso, y cada vez más están buscando soluciones a través del sistema judicial.
Microsoft y OpenAI están siendo demandados por permitir que sus herramientas de IA reproduzcan código con licencia. Tres empresas detrás de populares aplicaciones de arte de IA están en el centro de un caso que las acusa de infringir los derechos de los artistas. Además, importantes sellos discográficos han demandado a dos startups que desarrollan generadores de canciones impulsados por IA por infracción.
Muchas empresas de IA han defendido sus prácticas bajo la protección del uso justo, argumentando que sus modelos crean obras transformativas. Sin embargo, hay consideraciones únicas con el contenido de juegos. Los videos de juego involucran al menos dos capas de protección de derechos de autor: el contenido del juego, que pertenece al desarrollador, y el video único creado por el jugador. En algunos casos, puede haber una tercera capa de derechos en forma de contenido generado por el usuario.
Si los tribunales encuentran responsabilidad por derechos de autor en el entrenamiento de modelos de IA, cada uno de estos titulares de derechos podría ser un demandante o fuente de licencia. Esto aumenta exponencialmente el riesgo para los desarrolladores que entrenan IA con estos videos. Además, los juegos tienen muchos elementos “protegibles” que un juez podría considerar en una demanda de propiedad intelectual.
TechCrunch se puso en contacto con varios estudios y editores de juegos para obtener comentarios, pero pocos respondieron. Es posible que las empresas de IA puedan prevalecer en estas disputas legales, ya que los tribunales podrían decidir que la IA generativa tiene un “propósito transformador convincente”. Sin embargo, una decisión a favor de las empresas de IA no protegería a los usuarios de acusaciones de infracción.
Los sistemas de IA generativa a menudo producen activos de propiedad intelectual reconocibles en su salida. Algunas empresas de IA tienen cláusulas de indemnización para cubrir estas situaciones, pero a menudo solo se aplican a clientes corporativos, no a usuarios individuales. También hay riesgos más allá de los derechos de autor, como violaciones de derechos de marca.
El creciente interés en los modelos de mundo podría complicar aún más la situación. Una aplicación de estos modelos es generar videojuegos en tiempo real. Si estos juegos “sintéticos” se asemejan al contenido con el que se entrenó el modelo, esto podría ser problemático legalmente. Entrenar una plataforma de IA con elementos de un videojuego constituye infracción de derechos de autor, al igual que si se usaran en otros contextos. Las preguntas sobre el uso justo que han surgido en muchas demandas contra empresas de IA generativa afectarán a la industria de los videojuegos tanto como a cualquier otro mercado creativo.