Investigadores de ByteDance, la empresa detrás de TikTok, han presentado un nuevo sistema de inteligencia artificial llamado OmniHuman-1, que puede crear videos deepfake extremadamente realistas. Aunque ya existen muchas aplicaciones que permiten insertar a alguien en una foto o hacer que una persona parezca decir algo que no dijo, la mayoría de los deepfakes, especialmente los videos, no logran parecer completamente reales. A menudo, hay alguna señal que indica que se utilizó inteligencia artificial. Sin embargo, esto no ocurre con OmniHuman-1, al menos según los ejemplos seleccionados que el equipo de ByteDance ha compartido.
Este sistema solo necesita una imagen de referencia y un audio, como una grabación de voz, para generar un video. Además, se puede ajustar el tamaño del video y la proporción del cuerpo del sujeto, es decir, cuánto de su cuerpo se muestra en el clip falso. OmniHuman-1 también puede editar videos existentes, incluso modificando los movimientos de las extremidades de una persona. Los resultados son realmente sorprendentes y convincentes.
Sin embargo, OmniHuman-1 no es perfecto. El equipo de ByteDance advierte que las imágenes de referencia de baja calidad no producirán los mejores videos, y el sistema tiene dificultades con ciertas poses. Aún así, OmniHuman-1 supera con creces las técnicas de deepfake anteriores y podría ser un indicativo de lo que está por venir.
El año pasado, los deepfakes políticos se propagaron rápidamente en todo el mundo. En el día de las elecciones en Taiwán, un grupo vinculado al Partido Comunista Chino publicó un audio generado por IA que engañaba al público sobre un político apoyando a un candidato pro-China. En Moldavia, aparecieron videos deepfake que mostraban a la presidenta Maia Sandu renunciando. En Sudáfrica, un deepfake del rapero Eminem apoyando a un partido de oposición circuló antes de las elecciones del país. Además, los deepfakes se están utilizando cada vez más para cometer fraudes financieros. Los consumidores han sido engañados por deepfakes de celebridades que ofrecen oportunidades de inversión fraudulentas, mientras que las empresas han perdido millones debido a impostores que utilizan deepfakes. Según Deloitte, el contenido generado por IA causó más de 12 mil millones de dólares en pérdidas por fraude en 2023, y podría alcanzar los 40 mil millones de dólares en EE. UU. para 2027.
En febrero pasado, cientos de personas en la comunidad de IA firmaron una carta abierta pidiendo una regulación estricta de los deepfakes. A falta de una ley federal que criminalice los deepfakes en EE. UU., más de 10 estados han promulgado leyes contra la suplantación asistida por IA. La ley de California, que actualmente está estancada, sería la primera en permitir a los jueces ordenar la eliminación de deepfakes o enfrentar posibles sanciones monetarias. Desafortunadamente, detectar deepfakes es complicado. Aunque algunas redes sociales y motores de búsqueda han tomado medidas para limitar su difusión, la cantidad de contenido deepfake en línea sigue creciendo a un ritmo alarmante. En una encuesta de mayo de 2024 realizada por la firma de verificación de identidad Jumio, el 60% de las personas dijo haber encontrado un deepfake en el último año. El 72% de los encuestados expresó su preocupación por ser engañados por deepfakes a diario, y la mayoría apoyó la legislación para abordar la proliferación de falsificaciones generadas por IA.