A principios de año, había muchas preocupaciones sobre cómo la inteligencia artificial generativa podría ser utilizada para interferir en las elecciones globales, propagando desinformación y propaganda. Sin embargo, al final del año, Meta afirma que esos temores no se materializaron, al menos en sus plataformas. La empresa compartió que la tecnología tuvo un impacto limitado en Facebook, Instagram y Threads.
Meta basó sus hallazgos en el contenido relacionado con elecciones importantes en países como Estados Unidos, Bangladesh, Indonesia, India, Pakistán, el Parlamento de la UE, Francia, el Reino Unido, Sudáfrica, México y Brasil. La compañía indicó en una publicación de blog que, aunque hubo casos confirmados o sospechosos del uso de IA de esta manera, los volúmenes fueron bajos y sus políticas existentes fueron suficientes para reducir el riesgo asociado al contenido generado por IA. Durante el período electoral de las elecciones mencionadas, el contenido relacionado con elecciones, política y temas sociales representó menos del 1% de toda la desinformación verificada.
Meta también destacó que su generador de imágenes Imagine AI rechazó 590,000 solicitudes para crear imágenes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al día de las elecciones, con el fin de evitar la creación de deepfakes relacionados con las elecciones.
Además, la empresa descubrió que las redes coordinadas de cuentas que intentaban difundir propaganda o desinformación lograron solo un pequeño avance en productividad y generación de contenido utilizando IA generativa. Meta aseguró que el uso de IA no obstaculizó su capacidad para eliminar estas campañas de influencia encubiertas, ya que se enfoca en el comportamiento de estas cuentas y no en el contenido que publican, independientemente de si fue creado con IA o no.
La compañía también reveló que desmanteló alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo para prevenir interferencias extranjeras. La mayoría de las redes que interrumpieron no tenían audiencias auténticas y algunas usaron “me gusta” y seguidores falsos para parecer más populares de lo que realmente eran.
Meta también señaló que otras plataformas, como X y Telegram, a menudo publicaban videos falsos sobre las elecciones de EE. UU. vinculados a operaciones de influencia basadas en Rusia. “A medida que reflexionamos sobre lo que hemos aprendido durante este año notable, mantendremos nuestras políticas bajo revisión y anunciaremos cualquier cambio en los próximos meses”, escribió Meta.