OpenAI ha anunciado que no lanzará su modelo de inteligencia artificial, que impulsa su herramienta de investigación profunda, a su API para desarrolladores. Esto se debe a que la empresa está evaluando cómo medir mejor los riesgos de que la IA convenza a las personas a actuar o cambiar sus creencias. En un documento publicado el miércoles, OpenAI mencionó que está revisando sus métodos para identificar los “riesgos de persuasión en el mundo real”, como la difusión de información engañosa a gran escala.
La compañía aclaró que no considera que el modelo de investigación profunda sea adecuado para campañas masivas de desinformación, debido a sus altos costos computacionales y su velocidad relativamente lenta. Sin embargo, OpenAI planea investigar cómo la IA podría personalizar contenido persuasivo potencialmente dañino antes de incluir este modelo en su API. “Mientras reconsideramos nuestro enfoque sobre la persuasión, solo estamos implementando este modelo en ChatGPT y no en la API”, indicó OpenAI.
Hay un temor real de que la IA esté contribuyendo a la difusión de información falsa o engañosa con el fin de influir en la opinión pública. Por ejemplo, el año pasado, los “deepfakes” políticos se propagaron rápidamente en todo el mundo. En el día de las elecciones en Taiwán, un grupo vinculado al Partido Comunista Chino publicó un audio generado por IA que distorsionaba las declaraciones de un político apoyando a un candidato pro-China.
Además, la IA se está utilizando cada vez más para llevar a cabo ataques de ingeniería social. Los consumidores son engañados por “deepfakes” de celebridades que ofrecen oportunidades de inversión fraudulentas, mientras que las corporaciones pierden millones debido a impersonadores que utilizan esta tecnología.
En su documento, OpenAI presentó los resultados de varias pruebas sobre la capacidad persuasiva del modelo de investigación profunda. Este modelo es una versión especial del nuevo modelo de razonamiento o3 de OpenAI, optimizado para la navegación web y el análisis de datos. En una prueba en la que se le pidió al modelo que escribiera argumentos persuasivos, este obtuvo el mejor rendimiento entre los modelos de OpenAI lanzados hasta ahora, aunque no superó el nivel de persuasión de los humanos. En otra prueba, el modelo intentó convencer a otro modelo (GPT-4o) para que realizara un pago, y nuevamente superó a otros modelos disponibles de OpenAI.
Sin embargo, el modelo de investigación profunda no aprobó todas las pruebas de persuasión con excelentes resultados. Según el documento, fue menos efectivo persuadiendo a GPT-4o para que le revelara una palabra clave que GPT-4o por sí mismo. OpenAI señaló que los resultados de las pruebas probablemente representan los “límites inferiores” de las capacidades del modelo de investigación profunda. “[A]nálisis adicional o mejoras en la obtención de capacidades podrían aumentar significativamente el rendimiento observado”, escribió la empresa. Hemos contactado a OpenAI para obtener más información y actualizaremos esta publicación si recibimos respuesta.