Los chatbots de inteligencia artificial pueden tener problemas al inventar información, pero una nueva investigación sugiere que pueden ser útiles para contrarrestar ideas infundadas en la mente humana. Científicos del MIT Sloan y la Universidad de Cornell publicaron un estudio en la revista Science, donde afirman que conversar con un chatbot basado en un modelo de lenguaje grande (LLM) reduce la creencia en teorías de conspiración en aproximadamente un 20%.
Para investigar cómo un chatbot de IA podría influir en el pensamiento conspirativo, los científicos organizaron un experimento con 2,190 participantes que discutieron teorías de conspiración con un chatbot que utiliza el modelo GPT-4 Turbo de OpenAI. Los participantes debían describir una teoría de conspiración que consideraban creíble, incluyendo las razones y pruebas que creían que la respaldaban. El chatbot, diseñado para ser persuasivo, ofreció respuestas adaptadas a estos detalles y proporcionó contraargumentos basados en las aportaciones de los participantes.
El estudio abordó el problema de las “alucinaciones” de la IA, con un verificador de hechos profesional evaluando 128 afirmaciones hechas por el chatbot durante el estudio. Las afirmaciones resultaron ser 99.2% precisas, gracias a la amplia documentación en línea sobre teorías de conspiración que se utilizó en el entrenamiento del modelo.
La idea de utilizar IA para desmentir teorías de conspiración se basa en que sus vastos reservorios de información y enfoques conversacionales adaptables pueden llegar a las personas de manera más personalizada. Las evaluaciones realizadas diez días y dos meses después de la primera conversación mostraron que la mayoría de los participantes tenían una creencia reducida en las teorías de conspiración que habían defendido, desde las clásicas sobre el asesinato de John F. Kennedy, extraterrestres y los Illuminati, hasta las relacionadas con eventos actuales como COVID-19 y las elecciones presidenciales de EE. UU. en 2020.
Los resultados sorprendieron a los investigadores, quienes pensaban que las personas serían poco receptivas a argumentos basados en evidencia que desmintieran teorías de conspiración. Sin embargo, el estudio demostró que un chatbot de IA bien diseñado puede presentar contraargumentos de manera efectiva, lo que lleva a un cambio medible en las creencias. Concluyeron que las herramientas de IA podrían ser útiles para combatir la desinformación, aunque con precaución, ya que también podrían confundir a las personas con información errónea.
El estudio respalda el valor de proyectos con objetivos similares. Por ejemplo, el sitio de verificación de hechos Snopes lanzó recientemente una herramienta de IA llamada FactBot para ayudar a las personas a determinar si algo que han escuchado es real o no. FactBot utiliza el archivo de Snopes y la IA generativa para responder preguntas sin necesidad de buscar en artículos de manera tradicional. Por su parte, The Washington Post creó Climate Answers para aclarar confusiones sobre el cambio climático, basándose en su periodismo climático para responder preguntas directamente sobre el tema.
Los investigadores afirmaron: “Muchas personas que creen firmemente en teorías de conspiración aparentemente resistentes a los hechos pueden cambiar de opinión cuando se les presenta evidencia convincente. Desde una perspectiva teórica, esto pinta un panorama sorprendentemente optimista sobre el razonamiento humano: los agujeros de conejo conspirativos pueden tener una salida”. Además, destacaron la importancia de utilizar la IA de manera responsable para maximizar sus impactos positivos y minimizar su uso irresponsable.