La introducción de GPT-4o ha sido vista como un gran avance en las capacidades del chatbot ChatGPT de OpenAI, ya que ahora puede producir respuestas más realistas y trabajar con una gama más amplia de entradas. Sin embargo, esta mayor sofisticación podría tener un lado negativo. OpenAI ha advertido que las capacidades de GPT-4o están causando que algunos usuarios se vuelvan cada vez más apegados al chatbot, lo que podría tener consecuencias preocupantes.
En una reciente publicación en su blog sobre GPT-4o, OpenAI describió muchos de los riesgos asociados con el nuevo modelo de chatbot. Uno de ellos es la “antropomorfización y dependencia emocional”, que implica atribuir comportamientos y características humanas a entidades no humanas, como los modelos de IA.
En el caso de GPT-4o, OpenAI señala que “Durante las pruebas iniciales… observamos a usuarios utilizando un lenguaje que podría indicar la formación de conexiones con el modelo. Por ejemplo, esto incluye expresiones de vínculos compartidos, como ‘Este es nuestro último día juntos'”.
Como explicó la publicación del blog, este comportamiento puede parecer inocente en la superficie, pero tiene el potencial de llevar a algo más problemático, tanto para los individuos como para la sociedad en general. Para los escépticos, esto será una prueba más de los peligros de la IA y del rápido desarrollo no regulado de esta tecnología.
Enamorarse de la IA
Como admite la publicación de OpenAI, formar apegos a una IA podría reducir la necesidad de interacciones humanas, lo que a su vez podría afectar las relaciones saludables. Además, OpenAI afirma que ChatGPT es “deferente”, permitiendo a los usuarios interrumpir y tomar el control de las conversaciones. Ese tipo de comportamiento se ve como normal con las IAs, pero es grosero cuando se hace con otros humanos. Si se normaliza, OpenAI cree que podría impactar las interacciones humanas regulares.
El tema del apego a la IA no es la única advertencia que OpenAI emitió en la publicación. OpenAI también señaló que GPT-4o a veces puede “generar de manera no intencionada una salida que emule la voz del usuario”, lo que significa que podría usarse para hacerse pasar por alguien, dando a todos, desde criminales hasta ex-parejas malintencionadas, oportunidades para realizar actividades nefastas.
Aunque OpenAI dice que ha implementado medidas para mitigar este y otros riesgos, en cuanto a los usuarios que se vuelven emocionalmente apegados a ChatGPT, no parece que OpenAI tenga medidas específicas en marcha aún. La compañía simplemente dijo que “Tenemos la intención de estudiar más a fondo el potencial de la dependencia emocional y las formas en que la integración más profunda de las muchas características de nuestros modelos y sistemas con la modalidad de audio puede impulsar el comportamiento”.
Considerando los fuertes riesgos de que las personas se vuelvan demasiado dependientes de una inteligencia artificial, y las posibles ramificaciones más amplias si esto ocurre a gran escala, uno esperaría que OpenAI tenga un plan que pueda implementar más pronto que tarde. De lo contrario, es solo otra consecuencia no intencionada de una tecnología que está trastornando la sociedad sin las salvaguardias adecuadas para prevenir daños significativos.