Muchos temían que las elecciones de 2024 se verían afectadas, e incluso decididas, por desinformación generada por inteligencia artificial. Aunque hubo algo de esto, fue mucho menos de lo esperado. Sin embargo, no te dejes engañar: la amenaza de desinformación es real, aunque tú no seas el objetivo. Así lo afirma Oren Etzioni, un investigador de inteligencia artificial con mucha experiencia, cuya organización sin fines de lucro TrueMedia está al tanto de la desinformación generada. “Hay, por falta de una mejor palabra, una diversidad de deepfakes”, comentó Etzioni en una reciente entrevista. “Cada uno tiene su propio propósito, y algunos son más conocidos que otros. Para que lo entiendas: por cada cosa de la que realmente oyes hablar, hay cien que no están dirigidas a ti. Tal vez mil. Realmente solo vemos la punta del iceberg en la prensa convencional”.
La realidad es que la mayoría de las personas, especialmente en Estados Unidos, tienden a pensar que lo que experimentan es lo mismo que otros experimentan. Esto no es cierto por muchas razones. En el caso de las campañas de desinformación, Estados Unidos es un objetivo difícil, gracias a una población relativamente bien informada, información factual fácilmente disponible y una prensa que es confiable la mayor parte del tiempo (a pesar de todo el ruido en contrario).
Normalmente pensamos en los deepfakes como videos de celebridades haciendo o diciendo cosas que no harían. Pero los deepfakes realmente peligrosos no son los de famosos o políticos, sino los de situaciones y personas que no pueden ser fácilmente identificadas y contrarrestadas. “Lo que la gente no entiende es la variedad. Vi uno hoy de aviones iraníes sobre Israel”, señaló, algo que no sucedió pero que no puede ser fácilmente desmentido por alguien que no esté en el lugar. “No lo ves porque no estás en el canal de Telegram o en ciertos grupos de WhatsApp, pero millones sí lo están”.
TrueMedia ofrece un servicio gratuito (a través de la web y API) para identificar imágenes, videos, audios y otros elementos como falsos o reales. No es una tarea sencilla y no puede ser completamente automatizada, pero están construyendo lentamente una base de material verificado que retroalimenta el proceso. “Nuestra misión principal es la detección. Los estándares académicos para evaluar medios falsos han sido superados hace tiempo”, explicó Etzioni. “Entrenamos con cosas subidas por personas de todo el mundo; vemos lo que dicen los diferentes proveedores sobre ello, lo que dicen nuestros modelos y generamos una conclusión. Además, tenemos un equipo forense que realiza una investigación más profunda y extensa, no sobre todos los elementos, sino sobre una fracción significativa, para tener una verdad comprobada. No asignamos un valor de verdad a menos que estemos bastante seguros; aún podemos estar equivocados, pero somos sustancialmente mejores que cualquier otra solución única”.
La misión principal se centra en cuantificar el problema de tres maneras clave que Etzioni describió:
1. ¿Cuánto hay por ahí? “No lo sabemos, no hay un Google para esto. Vemos diversas indicaciones de que es omnipresente, pero es extremadamente difícil, tal vez incluso imposible, medirlo con precisión”.
2. ¿Cuántas personas lo ven? “Esto es más fácil porque cuando Elon Musk comparte algo, ves ‘10 millones de personas lo han visto’. Así que el número de ojos está fácilmente en cientos de millones. Cada semana veo elementos que han sido vistos millones de veces”.
3. ¿Qué impacto tuvo? “Esta puede ser la más importante. ¿Cuántos votantes no fueron a las urnas por las llamadas falsas de Biden? Simplemente no estamos preparados para medir eso. La campaña en Eslovaquia [una campaña de desinformación dirigida a un candidato presidencial allí en febrero] fue de último minuto, y luego él perdió. Eso pudo haber influido en esa elección”.
Todo esto son trabajos en progreso, algunos apenas comenzando, enfatizó. Pero hay que empezar en algún lugar. “Permíteme hacer una predicción audaz: en los próximos 4 años nos volveremos mucho más hábiles para medir esto”, dijo. “Porque tenemos que hacerlo. Ahora mismo solo estamos tratando de sobrellevar la situación”. En cuanto a algunos intentos de la industria y la tecnología para hacer que los medios generados sean más obvios, como la marca de agua en imágenes y textos, son inofensivos y quizás beneficiosos, pero no comienzan a resolver el problema, afirmó. “La forma en que lo diría es, no traigas una marca de agua a una pelea de armas”. Estos estándares voluntarios son útiles en ecosistemas colaborativos donde todos tienen una razón para usarlos, pero ofrecen poca protección contra actores maliciosos que quieren evitar ser detectados.
Todo esto suena bastante grave, y lo es, pero la elección más importante en la historia reciente acaba de llevarse a cabo sin muchos trucos de IA. Esto no es porque la desinformación generada no sea común, sino porque sus creadores no sintieron que era necesario participar. Si eso te asusta más o menos que la alternativa, depende de ti.