Cuando interactúas con ChatGPT y otras herramientas de inteligencia artificial conversacional, estas procesan tu entrada a través de algoritmos para componer una respuesta que puede parecer que proviene de un ser humano, aunque en realidad los modelos de lenguaje grande (LLM) funcionan de otra manera. Sin embargo, dos tercios de los encuestados en un estudio de la Universidad de Waterloo creen que los chatbots de IA son conscientes de alguna forma, pasando la Prueba de Turing al convencerlos de que una IA es equivalente a un humano en conciencia.
La inteligencia artificial generativa, como la desarrollada por OpenAI con ChatGPT, ha avanzado a pasos agigantados en los últimos años. La empresa y sus rivales a menudo hablan de una visión para la inteligencia artificial general (AGI) con inteligencia similar a la humana. OpenAI incluso tiene una nueva escala para medir qué tan cerca están sus modelos de lograr AGI. Pero, incluso los expertos más optimistas no sugieren que los sistemas de AGI sean autoconscientes o capaces de tener emociones verdaderas. Aun así, de las 300 personas que participaron en el estudio, el 67% dijo creer que ChatGPT podía razonar, sentir y ser consciente de su existencia de alguna manera.
También hubo una notable correlación entre la frecuencia con la que alguien usa herramientas de IA y la probabilidad de que perciban conciencia en ellas. Eso es un testimonio de lo bien que ChatGPT imita a los humanos, pero no significa que la IA haya despertado. El enfoque conversacional de ChatGPT probablemente los hace parecer más humanos, aunque ningún modelo de IA funciona como un cerebro humano. Y aunque OpenAI está trabajando en un modelo de IA capaz de hacer investigaciones de manera autónoma llamado Strawberry, eso sigue siendo diferente de una IA que es consciente de lo que está haciendo y por qué.
“Si bien la mayoría de los expertos niegan que la IA actual pueda ser consciente, nuestra investigación muestra que para la mayoría del público en general, la conciencia de la IA ya es una realidad”, explicó la profesora de psicología de la Universidad de Waterloo y co-líder del estudio, la Dra. Clara Colombatto. “Estos resultados demuestran el poder del lenguaje porque una conversación por sí sola puede llevarnos a pensar que un agente que se ve y funciona de manera muy diferente a nosotros puede tener una mente”.
La creencia en la conciencia de la IA podría tener importantes implicaciones para cómo las personas interactúan con las herramientas de IA. En el lado positivo, fomenta los buenos modales y facilita confiar en lo que hacen las herramientas, lo que podría hacerlas más fáciles de integrar en la vida diaria. Pero la confianza conlleva riesgos, desde la dependencia excesiva en ellas para la toma de decisiones hasta, en el extremo, la dependencia emocional de la IA y menos interacciones humanas.
Los investigadores planean profundizar en los factores específicos que hacen que las personas piensen que la IA tiene conciencia y lo que eso significa a nivel individual y social. También incluirá estudios a largo plazo sobre cómo cambian esas actitudes con el tiempo y en relación con el contexto cultural. Comprender las percepciones públicas de la conciencia de la IA es crucial no solo para desarrollar productos de IA, sino también para las regulaciones y normas que rigen su uso.
“Junto con las emociones, la conciencia está relacionada con habilidades intelectuales que son esenciales para la responsabilidad moral: la capacidad de formular planes, actuar intencionalmente y tener autocontrol son principios de nuestros sistemas éticos y legales”, dijo Colombatto. “Por lo tanto, estas actitudes públicas deben ser una consideración clave en el diseño y la regulación de la IA para un uso seguro, junto con el consenso de los expertos”.