Informe | Cómo robots.txt se convirtió en el caos normativo de la web

Última actualización: May 9, 2026

Resumen ejecutivo

planteaba una pregunta de política: ¿cuántos de los sitios web más visitados del mundo les están diciendo a los crawlers de IA qué pueden hacer y qué no?

Este seguimiento plantea la pregunta operativa que hay detrás: ¿qué tan fiable es robots.txt como infraestructura para sostener esa política hoy?

La respuesta es incómoda. robots.txt sigue funcionando porque es público, barato, legible por máquinas y los crawlers ya lo entienden. Pero también se le está pidiendo mucho más de lo que fue diseñado para hacer. En 2026, el mismo archivo de texto plano puede incluir controles de rastreo SEO, índices de sitemaps, extensiones heredadas de motores de búsqueda, exclusiones de entrenamiento para IA, vocabulario de políticas inyectado por Cloudflare, reservas de copyright y lenguaje legal pensado para futuras disputas.

Eso es deuda de configuración.

El conjunto de datos detrás de este informe es el mismo rastreo de Tranco Top 10,000 usado en el estudio original sobre crawlers de IA. De los 10,000 dominios, 6,638 devolvieron un robots.txt legible; otros 610 devolvieron 404, que el protocolo trata como permiso implícito. Esto deja 7,248 sitios analizables para decisiones de acceso de bots y 6,638 archivos concretos para analizar la complejidad de configuración.

Destacan seis hallazgos:

  1. La mayoría de los archivos robots.txt son pequeños, pero la cola derecha es extremadamente compleja. El archivo mediano pesa solo 834 bytes y tiene 31 líneas. Pero 1,005 archivos tienen al menos 5 KB, 273 al menos 20 KB y 28 al menos 100 KB. El archivo más grande de la muestra pesa 248 KB.

  2. Cientos de sitios web importantes ejecutan archivos que se parecen más a configuraciones de producción que a notas de política. El archivo mediano tiene 9 directivas Disallow. Pero 707 sitios tienen al menos 100 reglas Disallow, 13 tienen al menos 1,000, 240 nombran al menos 50 user agents y 110 nombran al menos 100 user agents.

  3. La deriva del protocolo no es teórica. Entre los 6,638 archivos legibles, 685 contienen Crawl-delay, 303 contienen Host, 200 contienen Clean-param, 9 contienen Request-rate, 5 contienen Visit-time y 271 contienen lenguaje de Content-Signal al estilo Cloudflare. No todas estas directivas forman parte de un estándar limpio y único. Son folclore acumulado de los crawlers.

  4. Googlebot recibe un trato especial. 562 dominios analizables bloquean al menos un crawler de búsqueda tradicional. En 404 de esos casos, Googlebot está permitido mientras al menos otro crawler de búsqueda está bloqueado. La discriminación entre crawlers de IA no apareció en un ecosistema neutral; robots.txt ya codificaba una jerarquía entre motores de búsqueda.

  5. La política de IA hace más visible la deuda. 1,377 archivos legibles contienen lenguaje de política de IA; 719 contienen lenguaje sobre copyright, términos, licencias o permisos; y 501 contienen ambos. El archivo se ha convertido a la vez en interfaz para máquinas y en artefacto legal. Eso es útil, pero frágil.

  6. Los archivos más riesgosos no siempre son los más anti-IA. Ecommerce, viajes, redes sociales, finanzas, academia y noticias generan archivos complejos por razones distintas: control del presupuesto de rastreo, rutas heredadas, contenido generado por usuarios, reservas de derechos y excepciones específicas para bots. Las reglas de IA se están superponiendo sobre una base ya caótica.

La conclusión principal: robots.txt sigue siendo la superficie pública más importante de política para crawlers en la web, pero es una base débil para una gobernanza de IA de alto impacto a menos que el ecosistema estandarice la identidad de los crawlers, el vocabulario de uso de IA y la auditabilidad de la política.


Metodología

Este informe reutiliza el conjunto de datos del análisis original de Thunderbit sobre la política de crawlers de IA en los dominios Tranco Top 10,000.

Los materiales de entrada fueron:

  • tranco_top10k.csv — la lista original de dominios Tranco Top 10K.
  • out/fetch_meta.csv — estado de la extracción, conteo de bytes, esquema, resultado de redirección y metadatos de error.
  • out/sites.csv — dominio, ranking, categoría, idioma y estado de robots.txt.
  • out/site_meta.csv — una fila analítica por sitio, incluida la clase de plantilla, las banderas de bloqueo de IA, el tamaño del archivo y los campos resumen de la política de bots.
  • out/bot_status.csv — una fila por dominio y crawler, incluida la información de si ese bot está bloqueado y si existe una regla específica.
  • raw_robots/ — cuerpos de robots.txt almacenados en caché para los 6,638 sitios que devolvieron estado 200.

Para este seguimiento, cada archivo robots.txt legible se analizó buscando:

  • tamaño del archivo y número de líneas;
  • líneas activas que no son comentarios;
  • recuentos de directivas User-agent, Disallow, Allow y Sitemap;
  • directivas heredadas o no centrales como Crawl-delay, Host, Clean-param, Request-rate y Visit-time;
  • vocabulario de la era de la IA, incluidos Content-Signal, llms.txt, AI, LLM, machine learning, TDM y 2019/790;
  • vocabulario legal como copyright, términos de servicio, licencias, permisos y lenguaje de reserva de derechos;
  • tratamiento de crawlers de búsqueda para Googlebot, Bingbot, DuckDuckBot, Slurp, Baiduspider y YandexBot.

El informe también define una puntuación simple de deuda de configuración para priorizar revisiones. Combina el tamaño del archivo, el conteo de user agents, el conteo de Disallow, el conteo de Allow, el número de directivas no estándar y la mezcla de lenguaje de política de IA y lenguaje legal. La puntuación no pretende ser una medida universal de corrección. Es una forma de identificar archivos que probablemente sean difíciles de mantener, revisar o interpretar.

Todas las tablas y gráficos derivados se incluyen en la carpeta de entrega.


Hallazgo 1: El archivo mediano es simple; la cola no lo es

El archivo robots.txt típico en la web de mayor tráfico sigue siendo pequeño.

robots-txt-analysis-may-2026.webp

Entre los 6,638 archivos legibles:

MétricaMedianaP90P95P99Máximo
Tamaño del archivo834 bytes6.7 KB15.8 KB76.0 KB248.3 KB
Líneas312383321,0084,998
Líneas activas231982828374,998
Directivas User-agent12139137823
Directivas Disallow91031764224,997
Directivas Allow1173369890

Esta distribución importa porque a menudo se habla de robots.txt como si fuera una declaración pequeña:

1User-agent: *
2Disallow: /private/

Ese modelo mental es incorrecto para una parte significativa de la web de alto tráfico.

En este conjunto de datos:

robots-txt-complexity-thresholds.webp

This paragraph contains content that cannot be parsed and has been skipped.

Los archivos más grandes y complejos no son curiosidades académicas. Pertenecen a propiedades reales y de alto tráfico:

DominioRankingCategoríaBytesUser-agentDisallowAllow
linkedin.com17social114,341764,184281
runescape.com5,226unknown113,39314,9970
academia.edu832academia57,384632,044227
etsy.com286ecommerce51,32031,621120
thepaper.cn9,395news56,86711,4960
opentable.com4,137unknown70,494321,683176
alfabank.ru2,625finance73,15821,566133

Estos archivos se parecen más a tablas de enrutamiento de producción que a consignas de política. Codifican años de lanzamientos de productos, rutas heredadas, patrones de parámetros bloqueados, excepciones para crawlers, experimentos de SEO, decisiones de CDN y, ahora, reglas para crawlers de IA.

La cola no es solo una historia de IA. De los 273 archivos de 20 KB o más, 131 contienen lenguaje de política de IA y 142 no. De los 707 archivos con al menos 100 directivas Disallow, solo 207 contienen lenguaje de política de IA. En otras palabras, la IA no creó el problema de los archivos grandes. Llegó después de que años de operaciones web normales ya hubieran llenado el archivo de reglas de rutas, referencias a sitemaps y excepciones para crawlers.

Eso importa porque la mantenibilidad depende de la forma, no solo de la intención. Un archivo pequeño con un bloqueo directo de IA puede ser fácil de auditar. Un archivo de 70 KB de ecommerce o viajes puede ser difícil de auditar aunque no diga nada sobre IA. El riesgo no es que todos los archivos grandes estén mal. El riesgo es que la política efectiva sea demasiado difícil de verificar para quienes son responsables de ella.

El riesgo operativo es sencillo: a medida que robots.txt crece, resulta más difícil que un editor, un ingeniero de plataforma, un abogado o un responsable de SEO responda a la pregunta básica: ¿qué permite realmente este archivo?

Esa pregunta ya no es trivial. Según el análisis estilo RFC, un crawler puede coincidir con un grupo de user agents más específico en lugar de User-agent: *; los patrones de ruta más largos pueden prevalecer sobre los más cortos; las directivas Allow y Disallow interactúan por precedencia; y las reglas genéricas de denegación total pueden atrapar accidentalmente nuevos crawlers que no existían cuando se escribió el archivo.

Para un archivo de 30 líneas, una persona puede razonar sobre eso. Para un archivo de 4,000 líneas con docenas de bots nombrados, nadie debería.


Hallazgo 2: robots.txt está cargando con más que reglas de rastreo

El debate sobre crawlers de IA hizo que robots.txt se volviera políticamente visible, pero el archivo subyacente ya venía acumulando responsabilidades no relacionadas.

Un robots.txt moderno de un sitio importante puede incluir:

  • controles de rutas para crawlers;
  • descubrimiento de sitemaps;
  • extensiones específicas para motores de búsqueda;
  • sugerencias de ritmo de rastreo;
  • sugerencias de canonización de host;
  • sugerencias para limpiar parámetros de URL;
  • vocabulario de políticas inyectado por la CDN;
  • texto de reserva de copyright;
  • exclusiones para entrenamiento de IA;
  • comentarios legales legibles por humanos.

El conjunto de datos muestra esta superposición con claridad.

SeñalArchivosProporción de archivos legibles
Crawl-delay68510.3%
Host3034.6%
Clean-param2003.0%
Content-Signal2714.1%
Request-rate90.1%
Visit-time50.1%
Mención de llms.txt831.3%
Lenguaje de copyright, términos, licencias o permisos71910.8%
Lenguaje de política de IA1,37720.7%

Algunas de estas directivas son ampliamente reconocidas por crawlers específicos. Algunas son convenciones heredadas. Algunas dependen del proveedor. Otras ni siquiera son directivas para crawlers, sino lenguaje legal o de producto incrustado en comentarios.

Así se ve la deriva del protocolo.

Crawl-delay es un buen ejemplo. Muchos operadores de sitios lo conocen, pero el soporte entre los principales crawlers es desigual. Host y Clean-param históricamente se han asociado con el comportamiento de Yandex. Content-Signal forma parte del vocabulario de políticas de Cloudflare para la era de la IA. llms.txt es un formato adyacente propuesto para descubrimiento, no un estándar universalmente respetado. Sin embargo, todos estos elementos aparecen en el mismo tipo de archivo, a menudo junto a las reglas clásicas User-agent y Disallow.

Las cifras también muestran cómo conviven ahora las convenciones antiguas y nuevas. Crawl-delay aparece en 685 archivos, más del doble que los 271 archivos con Content-Signal. Host aparece en 303 archivos y Clean-param en 200, lo que refleja sobre todo convenciones de la era de los motores de búsqueda. llms.txt, pese a la atención que recibe en el entorno de búsqueda con IA, se menciona en solo 83 archivos legibles. La web real no está convergiendo en un solo vocabulario. Está apilando vocabularios.

El problema no es que cada extensión por separado sea incorrecta. El problema es que el archivo se ha convertido en un contenedor sin versión para varios sistemas de gobernanza que se solapan.

Eso genera tres tipos de deuda:

  1. Deuda semántica. Distintos crawlers pueden interpretar el mismo archivo de forma diferente.
  2. Deuda de propiedad. Equipos de SEO, legales, infraestructura, seguridad y producto pueden tener razones para editar el archivo, pero ningún equipo tiene por qué poseer toda la política.
  3. Deuda de auditoría. Un sitio puede publicar una política que parezca intencional, mientras que solo un parser puede determinar su comportamiento efectivo.

La IA hace esto más importante porque los riesgos han cambiado. Cuando se ignora una sugerencia heredada de ritmo de rastreo, el resultado puede ser tráfico adicional. Cuando una exclusión de entrenamiento para IA es ambigua, el resultado puede convertirse en evidencia en una disputa de copyright o de licencias.


El informe original sobre crawlers de IA mostró que el 17.0% de los sitios analizables había escrito reglas explícitas específicas para IA. Este seguimiento examina la carga textual que añaden esas políticas.

protocol-drift-signals-chart.webp

Entre los 6,638 archivos robots.txt legibles:

  • 1,377 contienen lenguaje de política de IA;
  • 719 contienen lenguaje sobre copyright, términos, licencias, derechos o permisos;
  • 271 contienen Content-Signal;
  • 83 mencionan llms.txt.

La intersección es donde la historia se vuelve más interesante:

ai-policy-legal-rights-language-overlap.webp

Patrón textualArchivos
Lenguaje de política de IA y lenguaje legal/de derechos501
Lenguaje de política de IA sin lenguaje legal/de derechos876
Lenguaje legal/de derechos sin lenguaje de política de IA218
Content-Signal con lenguaje legal/de derechos242
Bloqueo explícito de IA con lenguaje legal/de derechos424

Este es un tipo de archivo nuevo.

Un robots.txt tradicional se dirige a crawlers. Un robots.txt con preámbulo legal se dirige al menos a cuatro audiencias al mismo tiempo:

  • operadores de crawlers, que necesitan directivas legibles por máquinas;
  • proveedores de búsqueda e IA, que necesitan señales de política;
  • abogados, que quieren una reserva explícita de derechos;
  • futuros auditores, tribunales o periodistas, que pueden leer los comentarios como evidencia de intención.

Ese diseño para múltiples audiencias explica por qué algunos archivos ya se leen como documentos de política. Pero también debilita la separación limpia entre lo que un crawler puede analizar y lo que un abogado quiere declarar.

Los 876 archivos con lenguaje de política de IA pero sin vocabulario legal son, en su mayoría, archivos de política para máquinas: nombres de bots, bloques Disallow y lenguaje de plantillas. Los 501 archivos con lenguaje de IA y lenguaje legal a la vez son distintos. Intentan ser instrucciones para crawlers y reservas de derechos simultáneamente. Los 218 archivos con lenguaje legal pero sin vocabulario de IA muestran que este patrón no empezó con los LLM; robots.txt ya se usaba como lugar para declarar términos, límites de permiso y reclamaciones de derechos.

Por ejemplo, un comentario puede decir que el machine learning está prohibido, mientras que el bloque de directivas real solo desautoriza un subconjunto de user agents conocidos. Un sitio puede reclamar derechos de forma global, pero nombrar solo a unos pocos crawlers. Una plantilla de CDN puede inyectar vocabulario relacionado con IA en un archivo cuyo operador nunca escribió manualmente el lenguaje legal. Un sitio puede escribir una regla amplia User-agent: * que bloquee por accidente a futuros crawlers.

Desde el punto de vista de gobernanza, robots.txt se ha vuelto atractivo precisamente porque es público y legible por máquinas. Pero cuanto más política contiene, más pesan sus limitaciones:

  • no hay una capa de autenticación que demuestre que una política específica fue revisada por el titular de derechos y no heredada de la infraestructura;
  • no hay historial de versiones nativo;
  • no hay un campo estructurado para el uso previsto, como entrenamiento, recuperación, indexación de búsqueda, resumen, caché o evaluación de modelos;
  • no hay un registro universal de identidades de crawlers de IA;
  • no hay mecanismo de aplicación.

Eso no hace que el archivo sea inútil. Lo hace frágil.

La mejor interpretación es que robots.txt se está convirtiendo en una capa de aviso: una declaración pública e inspeccionable de preferencia e intención. Por sí solo, no es un sistema completo de gestión de derechos.


Hallazgo 4: La búsqueda ya era desigual antes de que llegara la IA

Uno de los hallazgos más sólidos del informe original fue que muchos editores distinguen entre crawlers de entrenamiento para IA y crawlers de búsqueda. Bloquean CCBot, GPTBot o Google-Extended mientras preservan la visibilidad en la búsqueda de Google.

Este seguimiento añade otro punto: los crawlers de búsqueda tradicionales tampoco reciben el mismo trato.

Analizamos seis crawlers de búsqueda:

  • Googlebot;
  • Bingbot;
  • DuckDuckBot;
  • Slurp;
  • Baiduspider;
  • YandexBot.

Entre los 7,248 sitios analizables:

Tratamiento del crawler de búsquedaSitios
Bloquea al menos un crawler de búsqueda562
Permite Googlebot pero bloquea al menos otro crawler de búsqueda404
Bloquea los seis crawlers de búsqueda revisados152

Los conteos de bots bloqueados no están distribuidos de manera uniforme:

search-crawler-hierarchy.webp

Crawler de búsquedaSitios que lo bloquean
Baiduspider424
YandexBot393
Slurp255
DuckDuckBot231
Bingbot204
Googlebot158

Googlebot es el crawler menos bloqueado de este conjunto. Baiduspider y YandexBot se bloquean con mucha más frecuencia, y en la mayoría de esos casos Googlebot sigue estando permitido. Entre los 404 sitios que permiten Googlebot mientras bloquean otro crawler de búsqueda, 269 bloquean Baiduspider y 240 bloquean YandexBot.

Los ejemplos son de alto perfil:

DominioCrawlers de búsqueda bloqueados mientras Googlebot está permitido
facebook.comBaiduspider, YandexBot
apple.comBaiduspider
twitter.comDuckDuckBot, Slurp, Baiduspider, YandexBot
netflix.comDuckDuckBot, Slurp
x.comDuckDuckBot, Slurp, Baiduspider, YandexBot
tiktok.comBaiduspider
baidu.comBingbot, DuckDuckBot, Slurp, YandexBot
washingtonpost.comYandexBot
wsj.comYandexBot
bilibili.comDuckDuckBot, Slurp, YandexBot
temu.comSlurp
t-mobile.comBaiduspider, YandexBot

Esto importa para el debate sobre IA porque muestra que robots.txt no era un protocolo neutral de acceso universal ni siquiera antes de que llegaran los crawlers de LLM. La web pública ya tenía una jerarquía:

  • Googlebot suele conservarse porque el tráfico de búsqueda de Google es demasiado valioso para arriesgarlo.
  • Los crawlers regionales o de competidores se bloquean con más facilidad.
  • Algunos sitios tratan el acceso de crawlers de búsqueda como una decisión por mercado o por proveedor.

Los crawlers de IA llegaron a un ecosistema en el que el acceso diferenciado ya era normal.

Eso hace más fácil entender la transición de políticas. Un editor que escribe "bloquear Google-Extended, permitir Googlebot" no está inventando una nueva forma de discriminación. Está aplicando un patrón antiguo a una nueva clase de crawler: preservar la distribución, restringir la extracción.

La pregunta sin resolver es si ese patrón antiguo escala. Con la búsqueda, solo había unos pocos crawlers con peso económico. Con la IA, la identidad de los crawlers se fragmenta entre proveedores de modelos, bots de recuperación, intermediarios de datos, crawlers académicos, agentes de navegador sintético y extractores a nivel de infraestructura. El número de user agents nombrados seguirá creciendo a menos que el ecosistema converja en un conjunto más pequeño de señales basadas en propósito.

Así se acumula la deuda de configuración.


Hallazgo 5: La complejidad varía por sector, pero no como lo hacen las tasas de bloqueo de IA

El informe original mostró una amplia dispersión sectorial en el bloqueo de IA: noticias bloquea a tasas altas; telecomunicaciones, gobierno y SaaS bloquean a tasas bajas.

La complejidad de configuración corta la web de otra manera.

Entre las categorías seleccionadas con suficientes archivos robots.txt legibles para hacer una comparación útil:

CategoríanBytes medianosBytes P90Disallow medianoDisallow P90User-agent medianoUser-agent P90
ecommerce2151,73810,38837164349
travel632,07427,36841779534
news6471,5347,03919114668
finance1211,0028,33717132223
academia2538393,9591475111
government1511,2273,263134614
SaaS36848512,606456110
dev tools1192739,255358110

This paragraph contains content that cannot be parsed and has been skipped.

Las noticias son políticamente complejas porque escriben reglas explícitas de IA y texto legal. Pero ecommerce y viajes son operativamente complejos porque tienen catálogos grandes, navegación facetada, páginas de resultados de búsqueda, filtros, rutas de cuenta de usuario y URL parametrizadas.

Esa distinción es importante.

Viajes es el ejemplo más claro. Tiene solo 63 archivos legibles en este corte de categoría, pero su robots.txt P90 es de 27.4 KB y su conteo P90 de Disallow es 779, muy por encima de noticias. Eso no significa que los sitios de viajes tengan una política de IA más desarrollada. Significa que tienen más superficies en las que los operadores de crawlers pueden desperdiciar presupuesto sin querer: búsquedas por fecha, páginas de disponibilidad, paginación de reseñas, flujos de reserva, combinaciones de filtros y rutas de inventario localizadas.

SaaS es el otro tipo de sorpresa. Su archivo mediano pesa solo 485 bytes, pero el archivo P90 sube a 12.6 KB. La mayoría de los sitios SaaS son abiertos y ligeros; un subconjunto más pequeño lleva archivos largos de control de rutas, a menudo porque la documentación, las superficies de inicio de sesión, las rutas de la app y las páginas de marketing conviven bajo el mismo dominio.

Las noticias quedan en el medio desde el punto de vista operativo pero casi en la cima desde el punto de vista político. Su conteo P90 de User-agent es 68, superior al de ecommerce, viajes, finanzas, academia, gobierno, SaaS y dev tools en esta tabla. Eso es una señal de política específica por bot, no solo de higiene de rutas.

El robots.txt de un editor puede ser complejo por la política de derechos. El de un marketplace puede ser complejo por la gestión del presupuesto de rastreo. El de una universidad puede ser complejo porque miles de rutas heredadas se acumularon bajo un mismo dominio. El de una plataforma social puede ser complejo porque tiene que exponer algunas superficies y suprimir otras a gran escala.

La política de IA se superpone encima de todo eso. No reemplaza las razones existentes por las que un archivo es complejo.

Esto ayuda a explicar por qué la gobernanza de robots.txt en la era de la IA no se puede resolver con una lista de bloqueo universal. Los archivos subyacentes tienen funciones distintas:

  • los sitios de ecommerce gestionan rutas duplicadas y superficies de inventario;
  • los sitios de viajes gestionan listados, calendarios, reseñas y páginas de búsqueda dinámicas;
  • los sitios de noticias gestionan copyright, archivos y postura de licencias;
  • los sitios SaaS y de herramientas para desarrolladores a menudo quieren visibilidad en IA;
  • los gobiernos suelen necesitar acceso público, pero aun así pueden tener sistemas sensibles que excluir;
  • las plataformas sociales gestionan contenido generado por usuarios, superficies de perfiles y preocupaciones contra el abuso.

La misma regla de crawler de IA significa cosas distintas en cada entorno.


Hallazgo 6: Un índice de deuda de configuración identifica el riesgo de revisión, no el fracaso moral

Este análisis creó una puntuación simple de deuda de configuración para identificar archivos robots.txt que probablemente sean difíciles de revisar.

La puntuación pondera:

  • el tamaño del archivo;
  • el número de directivas User-agent;
  • el número de directivas Disallow;
  • el número de directivas Allow;
  • el número de directivas no centrales;
  • la presencia de lenguaje de política de IA;
  • la mezcla de bloqueo explícito de IA con lenguaje legal o de copyright.

Esto no es una puntuación de corrección. Un archivo muy complejo puede ser totalmente intencional. Un archivo simple todavía puede estar mal. El objetivo es priorizar: si un archivo es grande, está cargado de política, es específico de ciertos bots y está lleno de excepciones, merece una revisión más rigurosa.

configuration-debt-review-queue.webp

La distribución de la puntuación es pronunciada. El archivo legible mediano obtiene 1.74. El P90 es 13.29, el P95 es 15.00 y el P99 es 27.57. Solo 366 archivos alcanzan al menos 15, 80 alcanzan al menos 25 y 41 alcanzan al menos 30. Esa es la cola real de revisión: no todos los sitios necesitan un proyecto de gobernanza, pero la cola superior sí.

La vista por categoría también muestra por qué una sola etiqueta de "bloqueador de IA" es demasiado plana:

CategoríaPuntuación medianaPuntuación P90
travel4.9228.94
search2.9724.23
social2.2515.00
news4.9114.92
finance1.6712.61
SaaS0.9811.85
ecommerce3.8810.87
government1.576.38

Travel y search tienen las puntuaciones P90 más altas porque una minoría de archivos se vuelve muy grande y muy cargada de reglas. News tiene una de las puntuaciones medianas más altas porque el lenguaje de política y el trato específico para bots son más comunes en toda la categoría. Ecommerce tiene un conteo mediano alto de Disallow, pero su puntuación de deuda P90 es menor que la de travel porque la complejidad está más concentrada en reglas de rutas que en señales mixtas de política y lenguaje legal.

Los archivos con mayor puntuación de este conjunto de datos incluyen:

DominioPor qué obtiene una puntuación alta
linkedin.comArchivo muy grande, miles de reglas de rutas, muchos user agents nombrados, lenguaje explícito de política de IA
lnkd.inMisma superficie de política que la infraestructura de enlaces cortos de LinkedIn
fragrantica.comCientos de bloques para user agents nombrados más lenguaje de política de IA
sovcombank.ruCientos de bloques para user agents y lenguaje legal/de política
academia.eduGran matriz de allow/disallow y política explícita de bloqueo de IA
opentable.comGran conjunto de reglas de rutas, muchas directivas sitemap, superficie de política relacionada con IA
etsy.comArchivo grande de control de rutas para ecommerce con más de 1,600 reglas Disallow
runescape.comCasi 5,000 directivas Disallow bajo un solo grupo de user agent

Estos archivos no deberían ser ridiculizados por ser complejos. La complejidad suele reflejar necesidades reales del negocio. Pero sí demuestran por qué la política de robots.txt merece la misma disciplina de ingeniería que otras configuraciones de producción:

  • la propiedad debe ser explícita;
  • los cambios deben revisarse;
  • las secciones generadas deben etiquetarse;
  • los comentarios legales deben separarse de las directivas de máquina siempre que sea posible;
  • los casos de prueba deben afirmar el acceso esperado de bots críticos;
  • el historial de versiones debe preservarse;
  • los nombres antiguos de bots deben retirarse o documentarse;
  • el entrenamiento de IA, la recuperación para IA, la indexación de búsqueda y el archivado deben tratarse como propósitos separados.

El último punto es el más importante. La gramática actual se basa primero en el user-agent: le pide al operador del sitio que nombre bots. La necesidad de la era de la IA es primero el propósito: le pide al operador del sitio que diga qué usos están permitidos.

No es lo mismo.

Ese desajuste es la razón por la que las listas de bloqueo cada vez más largas no envejecerán bien. Hoy un editor puede añadir GPTBot, ClaudeBot, CCBot, Google-Extended, Bytespider, Applebot-Extended y PerplexityBot, pero mañana puede aparecer el siguiente nombre de crawler, agente de recuperación o intermediario de dataset. Una política basada en propósito permitiría al sitio decir "sí a la indexación de búsqueda, no al entrenamiento de IA, quizá a la recuperación iniciada por el usuario" sin convertir robots.txt en una libreta de contactos de bots.


Qué significa esto para la gobernanza de IA

El debate público suele plantear robots.txt como algo significativo o bien obsoleto. Los datos sugieren una respuesta más práctica:

robots.txt es significativo, pero está sobrecargado.

Es significativo porque los sitios importantes lo usan, los crawlers pueden analizarlo y las decisiones de política son visibles para investigadores, periodistas, proveedores y tribunales. El informe original encontró que el 17.0% de los sitios principales analizables tenía reglas deliberadas y específicas para IA. Eso no es ruido simbólico.

Está sobrecargado porque el archivo ahora tiene que expresar más que el acceso de bots:

  • "No entrenes con este contenido."
  • "Puedes usar este contenido para indexación de búsqueda."
  • "Puedes usar este contenido para recuperación en vivo."
  • "No puedes crear conjuntos de datos en caché."
  • "Esta reserva legal se aplica bajo la ley europea de text and data mining."
  • "Este sitio gestionado por CDN envía Content-Signal: ai-train=no."
  • "Este sitio quiere Googlebot, pero no YandexBot."
  • "Este sitio tiene 1,000 rutas URL heredadas que no deberían rastrearse."

La gramática no fue diseñada para tantos trabajos.

Tres cambios reducirían la deuda:

  1. La identidad de los crawlers necesita un registro. Los operadores de sitios no deberían tener que mantener una lista que crece sin parar de GPTBot, ClaudeBot, anthropic-ai, CCBot, Google-Extended, Applebot-Extended, Bytespider, OAI-SearchBot, ChatGPT-User y muchos más. Sin un registro, la política siempre irá por detrás del comportamiento de los crawlers.

  2. El uso de IA necesita vocabulario estructurado. Entrenamiento, recuperación, indexación, resumen, reventa de datasets, evaluación de modelos y navegación iniciada por el usuario son usos distintos. Expresarlos mediante nombres de user agent específicos de cada proveedor es frágil.

  3. La política necesita auditabilidad. La web necesita una forma de distinguir las reservas de derechos escritas por humanos de los valores por defecto heredados de la CDN, las plantillas generadas por CMS, las reglas heredadas obsoletas y los bloqueos accidentales que abarcan todo. La distinción importa para la confianza y para el litigio.

Nada de esto significa reemplazar robots.txt de un día para otro. El mejor camino es por capas: mantener robots.txt como superficie de descubrimiento y compatibilidad, pero estandarizar una política legible por máquinas adyacente para usos específicos de IA.

llms.txt es un intento en esa dirección, pero su adopción en este conjunto de datos sigue siendo minúscula: solo 83 archivos legibles lo mencionan. Content-Signal es más visible porque Cloudflare puede distribuirlo a través de la infraestructura, y los 271 archivos con Content-Signal en este rastreo también coincidieron con lenguaje de política de IA. Aun así, distribución no es lo mismo que consenso. Una solución duradera probablemente necesite la maquinaria aburrida de la estandarización: campos claros, semántica clara, compromisos de los crawlers y suites de prueba públicas.


Conclusión

La pelea por los crawlers de IA ha convertido a robots.txt en un artefacto de gobernanza. Eso es útil y arriesgado a la vez.

Útil, porque el archivo es público. Los investigadores pueden auditarlo. Los editores pueden modificarlo. Los crawlers pueden respetarlo. Los tribunales pueden leerlo. Los proveedores de infraestructura pueden desplegarlo a escala.

Arriesgado, porque está cargando demasiado.

El archivo robots.txt mediano del Tranco Top 10K sigue siendo lo bastante pequeño como para entenderlo. Pero la larga cola de la web de alto tráfico está llena de archivos grandes, antiguos, en capas, específicos de proveedores y cargados jurídicamente. Cientos de sitios mantienen ahora configuraciones de robots.txt que se entienden mejor como sistemas de política de producción que como simples sugerencias para crawlers.

La lección central no es que robots.txt haya fallado. Es que la web lo amplió sin refactorizarlo.

Si la política de acceso de IA va a depender de declaraciones públicas legibles por máquinas, el siguiente paso no es otra lista de bloqueo más larga. Es una mejor infraestructura de política: permisos basados en propósito, identidad estable de los crawlers, plantillas revisables y trazabilidad de auditoría.

Hasta entonces, la capa de gobernanza de IA de la web pública seguirá descansando sobre un archivo de texto que nunca estuvo pensado para cargar tanto peso.


Notas de reproducibilidad

La carpeta de entrega incluye:

  • source_data/analysis.json — métricas agregadas originales.
  • source_data/site_meta.csv — tabla analítica original por sitio.
  • source_data/bot_status.csv — tabla original de política por dominio y bot.
  • source_data/fetch_meta.csv — metadatos originales de extracción.
  • source_data/sites.csv — tabla original de dominios/categorías/estado.
  • derived_data/robots_complexity_by_site.csv — métricas de complejidad por sitio generadas para este informe.
  • derived_data/search_bot_treatment.csv — matriz de tratamiento para crawlers de búsqueda.
  • derived_data/category_complexity_summary.csv — resumen de complejidad por categoría.
  • derived_data/top_config_debt_sites.csv — principales sitios según la puntuación de priorización descrita arriba.
  • derived_data/summary_metrics.json — todas las métricas destacadas citadas en este informe.

Se agradecen correcciones de metodología, problemas del conjunto de datos y análisis de seguimiento en support@thunderbit.com. Este informe se publica de forma independiente de cualquier posición comercial que tenga Thunderbit; construimos un raspador web impulsado por IA y tenemos un interés estructural en que robots.txt siga siendo un contrato significativo y legible por máquinas en la web pública. Los datos de este informe se sostienen por sí solos. — El equipo de investigación de Thunderbit, mayo de 2026.

Prueba Thunderbit para raspado web con IA
Tabla de contenidos

Prueba Thunderbit

Extrae leads y otros datos en solo 2 clics. Impulsado por IA.

Obtén Thunderbit Es gratis
Extrae datos usando IA
Transfiere datos fácilmente a Google Sheets, Airtable o Notion
Chrome Store Rating
PRODUCT HUNT#1 Product of the Week