Investigadores de Microsoft y la Universidad Carnegie Mellon han publicado un estudio sobre cómo el uso de la inteligencia artificial generativa en el trabajo afecta nuestras habilidades de pensamiento crítico. El estudio señala que, si se utilizan de manera incorrecta, estas tecnologías pueden deteriorar nuestras capacidades cognitivas. Cuando las personas dependen demasiado de la inteligencia artificial en el trabajo, su esfuerzo se centra en verificar si la respuesta de la IA es adecuada, en lugar de utilizar habilidades de pensamiento crítico más avanzadas, como crear, evaluar y analizar información.
El estudio indica que si los humanos solo intervienen cuando las respuestas de la IA son insuficientes, pierden oportunidades rutinarias para practicar su juicio y fortalecer sus habilidades cognitivas, lo que los deja menos preparados para resolver problemas cuando surgen situaciones excepcionales. En otras palabras, al confiar demasiado en la IA para que piense por nosotros, nos volvemos menos capaces de resolver problemas por nuestra cuenta cuando la IA falla.
En esta investigación, participaron 319 personas que usaban inteligencia artificial generativa al menos una vez a la semana en su trabajo. Se les pidió que compartieran tres ejemplos de cómo utilizan la IA, que se clasificaron en tres categorías principales: creación (como escribir un correo electrónico estándar a un colega), información (investigar un tema o resumir un artículo largo) y asesoramiento (pedir orientación o hacer un gráfico con datos existentes). Luego, se les preguntó si practicaban habilidades de pensamiento crítico al realizar estas tareas y si el uso de la IA les hacía esforzarse más o menos en pensar críticamente.
Aproximadamente el 36% de los participantes indicó que utilizaban habilidades de pensamiento crítico para mitigar posibles resultados negativos del uso de la IA. Por ejemplo, una participante mencionó que utilizó ChatGPT para redactar una revisión de desempeño, pero revisó la salida de la IA por temor a enviar algo que pudiera causarle problemas. Otro encuestado comentó que tuvo que editar correos generados por la IA antes de enviárselos a su jefe, para evitar cometer un error cultural. Además, muchos participantes verificaron las respuestas generadas por la IA con búsquedas generales en la web, utilizando recursos como YouTube y Wikipedia, lo que podría anular el propósito de usar la IA en primer lugar.
Para que los trabajadores puedan compensar las limitaciones de la inteligencia artificial generativa, necesitan entender cómo ocurren esas limitaciones. Sin embargo, no todos los participantes estaban familiarizados con los límites de la IA. El estudio señala que los posibles daños derivados de las respuestas de la IA pueden motivar el pensamiento crítico, pero solo si el usuario es consciente de dichos daños. De hecho, se encontró que los participantes que confiaban en la IA utilizaban menos esfuerzo en el pensamiento crítico que aquellos que confiaban en sus propias habilidades. Aunque los investigadores evitan afirmar que las herramientas de IA generativa nos hacen menos inteligentes, el estudio muestra que depender demasiado de estas herramientas puede debilitar nuestra capacidad para resolver problemas de manera independiente.