Comprueba si una URL está permitida o bloqueada por las reglas de tu robots.txt
User-agent: *
Disallow: /admin/
Disallow: /private/
Allow: /public/
Sitemap: https://example.com/sitemap.xml
Este ejemplo muestra un robots.txt típico que bloquea directorios administrativos y privados, mientras permite explícitamente el acceso a contenido público.
Esta herramienta te ayuda a validar las reglas de tu archivo robots.txt y comprobar si una URL específica está permitida o bloqueada para diferentes user agents.
Soy Jorge Jaramillo, consultor SEO y creador de productos digitales.