La desinformación se está propagando rápidamente, en gran parte gracias a las herramientas de inteligencia artificial (IA) que están disponibles para todos. Según una encuesta reciente, el 85% de las personas se preocupa por la desinformación en línea, y el Foro Económico Mundial ha señalado que la desinformación generada por IA es un riesgo global importante. Este año, hemos visto campañas de desinformación notables, como una red de bots en X que apuntó a las elecciones federales de EE. UU., y un deepfake de voz del presidente Joe Biden que desalentaba a ciertos residentes a votar. En el extranjero, candidatos en varios países del sur de Asia han inundado la web con videos, imágenes y artículos de noticias falsos. Un deepfake del alcalde de Londres, Sadiq Khan, incluso incitó a la violencia en una marcha pro-palestina.
Entonces, ¿qué se puede hacer al respecto? Pamela San Martín, copresidenta de la Junta de Supervisión de Meta, afirma que la IA puede ayudar a combatir la desinformación, así como a crearla. Esta Junta, establecida en 2020, revisa las quejas sobre las políticas de moderación de Meta y emite recomendaciones sobre sus políticas de contenido. San Martín reconoce que la IA no es perfecta. Por ejemplo, el producto de IA de Meta ha marcado erróneamente publicaciones del Museo de Auschwitz como ofensivas y ha clasificado sitios de noticias independientes como spam. Sin embargo, está convencida de que mejorará con el tiempo. “La mayor parte del contenido en redes sociales es moderado por automatización, y esta utiliza IA para marcar ciertos contenidos para que sean revisados por humanos o para que se tomen acciones, como poner una pantalla de advertencia, eliminarlo o bajarlo en los algoritmos”, comentó San Martín en un panel sobre desinformación en IA en TechCrunch Disrupt 2024. “Se espera que los modelos de moderación de IA mejoren, y si lo hacen, pueden ser muy útiles para abordar la desinformación”.
Por supuesto, con el costo de sembrar desinformación disminuyendo gracias a la IA, es posible que incluso los modelos de moderación mejorados no puedan mantenerse al día. Imran Ahmed, CEO del Centro para Combatir el Odio Digital, también señaló que las redes sociales que amplifican contenido desinformativo agravan sus daños. Plataformas como X incentivan efectivamente la desinformación a través de programas de reparto de ingresos; el BBC informa que X está pagando a los usuarios miles de dólares por publicaciones exitosas que incluyen teorías de conspiración e imágenes generadas por IA. “Tienes una máquina de desinformación perpetua”, dijo Ahmed. “Eso es bastante preocupante. No estoy seguro de que debamos crear eso dentro de democracias que dependen de cierto grado de verdad”.
San Martín argumentó que la Junta de Supervisión ha logrado algunos cambios, como alentar a Meta a etiquetar contenido engañoso generado por IA. La Junta también ha sugerido que Meta facilite la identificación de casos de imágenes deepfake sexuales no consensuadas, un problema creciente. Sin embargo, tanto Ahmed como la panelista Brandie Nonnecke, profesora de UC Berkeley que estudia la intersección de la tecnología emergente y los derechos humanos, cuestionaron la idea de que la Junta de Supervisión y la autogobernanza puedan por sí solas frenar la desinformación. “Fundamentalmente, la autorregulación no es regulación, porque la Junta de Supervisión no puede responder a las cinco preguntas fundamentales que siempre debes hacer a alguien que tiene poder”, dijo Ahmed. “¿Qué poder tienes, quién te dio ese poder, en interés de quién ejerces ese poder, a quién eres responsable y cómo nos deshacemos de ti si no lo haces bien? Si la respuesta a cada una de esas preguntas es [Meta], entonces no eres ningún tipo de control o equilibrio. Eres simplemente un poco de publicidad”.
La opinión de Ahmed y Nonnecke no es aislada. En un análisis de junio, el Brennan Center de NYU escribió que la Junta de Supervisión está limitada a influir solo en una fracción de las decisiones de Meta porque la empresa controla si se implementan cambios en las políticas y no proporciona acceso a sus algoritmos. Meta también ha amenazado en privado con retirar su apoyo a la Junta de Supervisión, lo que resalta la naturaleza precaria de sus operaciones. Aunque la Junta está financiada por un fideicomiso irrevocable, Meta es el único contribuyente a ese fideicomiso.
En lugar de la autogobernanza, que plataformas como X son poco propensas a adoptar, Ahmed y Nonnecke ven la regulación como la solución al dilema de la desinformación. Nonnecke cree que la responsabilidad de productos defectuosos es una forma de responsabilizar a las plataformas, ya que esta doctrina sostiene que las empresas son responsables por lesiones o daños causados por sus productos “defectuosos”. También apoyó la idea de marcar contenido generado por IA para que sea más fácil identificarlo. (La marcación tiene sus propios desafíos, por supuesto). Sugerió que los proveedores de pagos podrían bloquear compras de desinformación de naturaleza sexual y que los anfitriones de sitios web podrían dificultar que actores malintencionados se inscriban en sus planes.
Los responsables de políticas que intentan hacer que la industria rinda cuentas han enfrentado contratiempos en EE. UU. recientemente. En octubre, un juez federal bloqueó una ley de California que habría obligado a los publicadores de deepfakes de IA a retirarlos o enfrentar posibles sanciones monetarias. Sin embargo, Ahmed cree que hay razones para el optimismo. Citó movimientos recientes de empresas de IA como OpenAI para marcar sus imágenes generadas por IA y leyes de moderación de contenido como la Ley de Seguridad en Línea en el Reino Unido. “Es inevitable que tenga que haber regulación para algo que potencialmente puede causar tanto daño a nuestras democracias, a nuestra salud, a nuestras sociedades y a nosotros como individuos”, dijo Ahmed. “Creo que hay enormes razones para la esperanza”.