OpenAI lanzó con orgullo la búsqueda de ChatGPT en octubre, presentándola como la próxima etapa para los motores de búsqueda. La compañía afirmó que esta nueva función combina las habilidades conversacionales de ChatGPT con las mejores herramientas de búsqueda en la web, ofreciendo información en tiempo real de una manera más útil que una simple lista de enlaces. Sin embargo, un reciente informe del Tow Center for Digital Journalism de la Universidad de Columbia sugiere que esta celebración podría haber sido prematura.
El estudio encontró que ChatGPT tiene una actitud algo despreocupada hacia la precisión, la atribución y la realidad básica al buscar noticias. Lo notable es que estos problemas ocurren sin importar si una publicación bloquea los rastreadores web de OpenAI o tiene un acuerdo de licencia oficial con la empresa para su contenido. El estudio analizó 200 citas de 20 publicaciones y pidió a ChatGPT que las atribuyera. Los resultados fueron muy variados.
En algunas ocasiones, el chatbot acertó. Otras veces, atribuyó citas a la fuente incorrecta o simplemente inventó una fuente. Los socios de OpenAI, como The Wall Street Journal, The Atlantic y las publicaciones Axel Springer y Meredith, a veces tuvieron mejores resultados, pero no de manera consistente. Apostar por la precisión al preguntar a ChatGPT sobre noticias no es lo que OpenAI o sus socios desean. Estos acuerdos fueron anunciados como una forma de que OpenAI apoyara el periodismo mientras mejoraba la precisión de ChatGPT.
El problema radica en el método que utiliza ChatGPT para encontrar y procesar información. Aunque los rastreadores web que usa pueden funcionar perfectamente, el modelo de IA detrás de ChatGPT aún puede cometer errores y “alucinar”. Tener acceso licenciado al contenido no cambia este hecho básico. Si una publicación bloquea los rastreadores, ChatGPT puede pasar de ser un buscador de noticias a un “lobo con piel de oveja” en cuanto a precisión. Publicaciones que utilizan archivos robots.txt para mantener a ChatGPT alejado de su contenido, como The New York Times, dejan a la IA luchando y fabricando fuentes en lugar de admitir que no tiene respuesta. Más de un tercio de las respuestas en el informe encajan en esta descripción, lo que no se soluciona con un simple arreglo de código.
Peor aún, si ChatGPT no puede acceder a fuentes legítimas, podría recurrir a lugares donde el mismo contenido se publicó sin permiso, perpetuando el plagio. En última instancia, la mala atribución de citas por parte de la IA no es tan grave como las implicaciones para el periodismo y herramientas de IA como ChatGPT. OpenAI quiere que la búsqueda de ChatGPT sea el lugar al que la gente acuda para obtener respuestas rápidas y confiables, correctamente vinculadas y citadas. Si no puede cumplir con esto, socava la confianza tanto en la IA como en el periodismo que resume. Para los socios de OpenAI, los ingresos de su acuerdo de licencia podrían no compensar la pérdida de tráfico debido a enlaces y citas poco confiables.
Así que, aunque la búsqueda de ChatGPT puede ser útil en muchas actividades, asegúrate de verificar esos enlaces si deseas asegurarte de que la IA no esté “alucinando” respuestas de internet.