Los fraudes con clonación de voz mediante inteligencia artificial están en aumento, según expertos en seguridad. Los modelos de IA que permiten la voz pueden imitar a personas queridas, lo que hace que estos engaños sean más peligrosos. Los expertos recomiendan acordar una frase segura con amigos y familiares para protegerse.
La próxima llamada que recibas podría no ser de una persona real, y tu oído no podrá notar la diferencia. Los estafadores están utilizando modelos de IA para automatizar sus esquemas fraudulentos, engañando a las personas al imitar a familiares y amigos.
¿Qué son los fraudes de voz con IA? Aunque las llamadas fraudulentas no son nuevas, las que utilizan IA son una nueva y peligrosa variante. Estas llamadas usan IA generativa para imitar no solo a autoridades o celebridades, sino también a personas cercanas. La llegada de modelos de IA entrenados en voces humanas ha abierto un nuevo ámbito de riesgo en las estafas telefónicas. Herramientas como la API de voz de OpenAI permiten conversaciones en tiempo real entre un humano y el modelo de IA. Con un poco de código, estos modelos pueden programarse para ejecutar estafas telefónicas automáticamente, animando a las víctimas a revelar información sensible.
¿Cómo puedes mantenerte seguro? Lo que hace que esta amenaza sea tan problemática no es solo lo fácil y barato que es implementarla, sino lo convincente que se han vuelto las voces de IA. OpenAI recibió críticas por su opción de voz Sky, que sonaba inquietantemente similar a Scarlett Johansson, mientras que Sir David Attenborough se mostró “profundamente perturbado” por un clon de voz de IA que era indistinguible de su habla real.
Con solo unos segundos de audio, es posible simular la voz de un ser querido, lo que puede obtenerse fácilmente de un video compartido en redes sociales. Incluso herramientas diseñadas para atrapar estafadores demuestran cuán difusas se han vuelto las líneas. La red británica O2 lanzó recientemente a Daisy, una “abuela” de IA diseñada para atrapar a los estafadores en una conversación que ellos creen que es con una persona mayor real. Es un uso ingenioso de la tecnología, pero también muestra lo bien que la IA puede simular interacciones humanas.
Los estafadores pueden entrenar voces de IA con muestras de audio muy pequeñas. Según F-Secure, una firma de ciberseguridad, solo unos segundos de audio son suficientes para simular la voz de un ser querido. Esto puede obtenerse fácilmente de un video en redes sociales.
¿Cómo funcionan las estafas de clonación de voz? El concepto básico es similar al de las estafas telefónicas estándar: los ciberdelincuentes se hacen pasar por alguien para ganar la confianza de la víctima, creando un sentido de urgencia que los anima a revelar información sensible o transferir dinero al estafador. La diferencia con las estafas de clonación de voz es doble. Primero, los criminales pueden automatizar el proceso con código, lo que les permite dirigirse a más personas, más rápido y por menos dinero. Segundo, pueden imitar no solo a autoridades y celebridades, sino también a personas que conoces directamente.
Para protegerte de las estafas de voz con IA, aquí hay algunos consejos:
1. Acordar una frase segura con amigos y familiares.
2. Pedir al llamante que confirme información privada reciente.
3. Escuchar si hay tensiones inusuales en las palabras o si la conversación suena sin emoción.
4. Colgar y volver a llamar a la persona con el número que tienes guardado.
5. Tener cuidado con solicitudes inusuales, como pedir detalles bancarios.
Incluso sin una frase segura acordada, puedes usar una táctica similar si dudas de la identidad del llamante. Los clones de voz de IA pueden imitar el patrón de habla de una persona, pero no necesariamente tendrán acceso a información privada. Preguntar al llamante sobre algo que solo ellos conocerían, como información compartida en la última conversación, es un paso hacia la certeza.
Confía en tu oído. Aunque los clones de voz de IA son muy convincentes, no son 100% precisos. Escucha señales de advertencia, como tensiones inusuales en ciertas palabras, falta de emoción o arrastre en el habla. Los estafadores pueden enmascarar el número desde el que llaman e incluso pueden parecer que están llamando desde el número de un amigo. Si alguna vez tienes dudas, lo más seguro es colgar y volver a llamar al número habitual.
Las estafas de clonación de voz también utilizan las mismas tácticas que las estafas telefónicas tradicionales, que buscan aplicar presión emocional y crear un sentido de urgencia para forzarte a tomar una acción que de otro modo no harías. Mantente alerta ante estas tácticas y ten cuidado con solicitudes inusuales, especialmente relacionadas con transferencias de dinero.