Hola a todos, bienvenidos a la newsletter de inteligencia artificial de Noticias IA. Hoy les traemos un tema preocupante: la facilidad con la que se pueden crear falsificaciones de audio de figuras públicas, como Kamala Harris. En el Día de las Elecciones, se logró hacer una imitación de su voz en menos de dos minutos y por solo 5 dólares. Esto muestra cómo la inteligencia artificial generativa está facilitando la desinformación.
El proceso comenzó con una herramienta llamada Voice Changer de Cartesia, que transforma tu voz en la de otra persona. Solo necesitas un clip de 10 segundos de la voz que deseas imitar. Al usar discursos recientes de Harris, creé una versión clonada de su voz. Aunque Cartesia tiene reglas para prevenir el uso indebido, como requerir que los usuarios acepten no generar contenido dañino, esto no impide que se creen falsificaciones perjudiciales.
Expertos en un evento reciente discutieron posibles soluciones, como la implementación de marcas de agua invisibles para identificar contenido generado por IA. Sin embargo, muchos creen que es demasiado tarde para controlar la desinformación, que se está propagando rápidamente. Por ejemplo, en el último año, se han visto redes de bots que afectan elecciones y falsificaciones de voz de figuras políticas.
El uso de deepfakes ha aumentado un 900% entre 2019 y 2020, y las leyes para regularlos son escasas. La detección de deepfakes se está convirtiendo en una carrera constante. Por lo tanto, es crucial ser escépticos sobre el contenido viral que consumimos y compartimos.
En otras noticias, Amazon ha comenzado a realizar entregas con drones en Phoenix, Arizona, y OpenAI ha contratado a la exjefa de AR de Meta para liderar su división de robótica. Además, OpenAI ha lanzado una nueva función llamada “X-Ray Recaps” que resume temporadas de series de televisión utilizando IA.
Por último, un nuevo modelo llamado Defense Llama ha sido creado para ayudar en operaciones de seguridad nacional, optimizado para responder preguntas sobre defensa. Sin embargo, el uso de IA generativa en el ámbito militar ha sido lento, ya que existen preocupaciones sobre la seguridad y la legalidad de compartir datos de inteligencia.
Es importante seguir informados sobre estos avances y sus implicaciones en nuestra vida diaria.