Reddit se enfrenta a las empresas de inteligencia artificial y les pide que paguen. Esta semana, Reddit anunció que cambiará su Protocolo de Exclusión de Robots, conocido como archivo robots.txt. Aunque suena técnico, este cambio es parte de una negociación entre las empresas de IA que buscan contenido para entrenar sus modelos de lenguaje y las compañías que poseen ese contenido.
El archivo robots.txt indica a terceros cómo pueden rastrear un sitio web. Por ejemplo, permite que Google rastree sitios para incluirlos en los resultados de búsqueda. Sin embargo, en el caso de la IA, el intercambio de valor no es tan claro. Si tienes un sitio web que depende de atraer visitas, no es atractivo permitir que las empresas de IA tomen tu contenido sin enviarte tráfico a cambio. En algunos casos, incluso plagian tu trabajo.
Al cambiar su archivo robots.txt y seguir limitando y bloqueando bots y rastreadores desconocidos, Reddit parece estar trabajando para evitar prácticas criticadas en empresas como Perplexity AI. ¡Dale play para aprender más y cuéntanos qué piensas en los comentarios!
More from TechRadar Pro.