A medida que los modelos de lenguaje grande (LLMs), como GPT de OpenAI, generan contenido de baja calidad en Internet, los editores de Wikipedia enfrentan nuevos desafíos. Además de corregir errores humanos, ahora deben dedicar más tiempo a eliminar contenido generado por inteligencia artificial.
404 Media ha hablado con Ilyas Lebleu, un editor de Wikipedia que ayudó a crear el proyecto “WikiProject AI Cleanup”. Este grupo busca establecer mejores prácticas para detectar contribuciones hechas por máquinas. Un gran problema con el contenido generado por IA es que a menudo carece de fuentes adecuadas. La capacidad de los LLMs para producir rápidamente grandes volúmenes de texto que suena creíble ha llevado incluso a la creación de entradas falsas, intentando engañar a los expertos humanos de Wikipedia.
Es fundamental que los editores de Wikipedia se mantengan alerta ante este tipo de contenido para preservar la calidad y la veracidad de la información en la enciclopedia.