• SEO Gestión de Robots.txt

Gary Illyes de Google: Centralice su Robots.txt en CDNs

  • Felix Rose-Collins
  • 2 min read
Gary Illyes de Google: Centralice su Robots.txt en CDNs

Introducción

En un reciente post de LinkedIn, el analista de Google Gary Illyes cuestionó el enfoque tradicional de colocar los archivos robots.txt en el dominio raíz. Presentó un método alternativo que centraliza estos archivos en las redes de distribución de contenidos (CDN), ofreciendo flexibilidad y una mejor gestión.

Información clave:

- Flexibilidad de Robots.txt:

  • No es necesario que el archivo robots.txt resida en el dominio raíz (por ejemplo, ejemplo.com/robots.txt).

  • Los sitios web pueden tener archivos robots.txt alojados tanto en el sitio web principal como en una CDN.

- Gestión centralizada de Robots.txt:

  • Al alojar robots.txt en una CDN, los sitios web pueden centralizar y racionalizar sus directivas de rastreo.

  • Por ejemplo, un sitio podría alojar robots.txt en https://cdn.example.com/robots.txt y redirigir las peticiones de https://www.example.com/robots.txt a este archivo centralizado.

- Cumplimiento de las normas actualizadas:

  • Los rastreadores que se adhieran a RFC9309 seguirán la redirección y utilizarán el archivo robots.txt centralizado para el dominio original.

Beneficios prácticos:

1. Gestión centralizada:

  • Consolidar las reglas de robots.txt en una única ubicación simplifica el mantenimiento y las actualizaciones en toda su presencia web.

2. Mejora de la coherencia:

  • Una única fuente para las reglas de robots.txt reduce el riesgo de directivas conflictivas entre el sitio principal y la CDN.

3. Mayor flexibilidad:

  • Este método es especialmente beneficioso para sitios web con arquitecturas complejas, múltiples subdominios o uso extensivo de CDN.

Reflexiones sobre 30 años de Robots.txt

En el 30 aniversario del Protocolo de Exclusión de Robots (REP), Illyes pone de relieve la evolución de las normas web. Incluso insinúa la posibilidad de futuros cambios en la gestión de las directivas de rastreo, sugiriendo que el tradicional nombre de archivo "robots.txt" podría no ser siempre necesario.

Cómo aplicar este enfoque:

1. Cree un archivo robots.txt centralizado:

  • Aloje su archivo robots.txt completo en su CDN (por ejemplo, https://cdn.example.com/robots.txt).

2. Configurar redireccionamientos:

  • Configure su dominio principal para redirigir las peticiones robots.txt al archivo alojado en la CDN.

3. Garantizar el cumplimiento:

  • Asegúrese de que su configuración cumple la norma RFC9309 para que los rastreadores compatibles sigan correctamente la redirección.

Conclusión

La guía de Gary Illyes sobre la centralización de los archivos robots.txt en las CDN ofrece un enfoque moderno para la gestión de las directivas de rastreo. Este método mejora la flexibilidad, la coherencia y la facilidad de gestión, especialmente para sitios con infraestructuras complejas. Adoptar esta estrategia puede agilizar la gestión de su sitio y mejorar potencialmente sus esfuerzos de SEO.

Felix Rose-Collins

Felix Rose-Collins

Ranktracker's CEO/CMO & Co-founder

Felix Rose-Collins is the Co-founder and CEO/CMO of Ranktracker. With over 15 years of SEO experience, he has single-handedly scaled the Ranktracker site to over 500,000 monthly visits, with 390,000 of these stemming from organic searches each month.

Empieza a usar Ranktracker... ¡Gratis!

Averigüe qué está impidiendo que su sitio web se clasifique.

Crear una cuenta gratuita

O inicia sesión con tus credenciales

Different views of Ranktracker app