anunciese.es
robots.txt

Robots Exclusion Standard data for anunciese.es

Resource Scan

Scan Details

Site Domain anunciese.es
Base Domain anunciese.es
Scan Status Ok
Last Scan2026-01-22T16:00:55+00:00
Next Scan 2026-01-29T16:00:55+00:00

Last Scan

Scanned2026-01-22T16:00:55+00:00
URL https://anunciese.es/robots.txt
Redirect https://www.anunciese.es/robots.txt
Redirect Domain www.anunciese.es
Redirect Base anunciese.es
Domain IPs 81.16.30.7
Redirect IPs 179.61.189.52, 2a02:4780:84:c1e2:62cf:fdd6:6aa7:b43f, 2a02:4780:84:eaaf:e332:ab23:cc10:5998, 91.108.100.93
Response IP 93.127.201.106
Found Yes
Hash fbd1cea562625efcdbc9931c59b95f4cdba1b6fc129331eb59457db88ff78aa6
SimHash c7f444120a00

Groups

*

Rule Path Comment
Disallow /sc-admin/ Area de administracion
Disallow /sc.includes/html/ -
Disallow /sc.includes/php/ -
Disallow /scr/profile/ Bloquea perfiles de usuario dentro de scr/ si esa ruta existe (redundante si /usuario/ es bloqueado)
Disallow /usuario/ Bloquea /usuario/ y todas sus subrutas /usuario/N/ etc. (pero NO las que llevan parametros - cubierto abajo)
Disallow /mis-anuncios/ Bloquea todas las URLs bajo /mis-anuncios/
Disallow /*? -

Other Records

Field Value
crawl-delay 10

Other Records

Field Value
sitemap https://www.anunciese.es/sitemap.xml

Comments

  • Bloquea directorios de sistema y areas no indexables del CMS
  • Disallow: /sc-includes/ # Archivos internos y de template (Bloquea todo aqui a menos que Style.css u otro asset este aqui - ver nota abajo)
  • Nota para /sc.includes/: Si 'style.css' u otros assets publicos esenciales (CSS/JS/Imgs) estan directamente bajo /sc-includes/
  • sin subcarpeta, al bloquear la carpeta entera '/sc-includes/', tambien bloqueas esos assets.
  • Si este es el caso, quita la linea 'Disallow: /sc.includes/' y considera bloquear solo subcarpetas internas si existen, EJ:
  • Permitiria acceso directo a archivos en /sc.includes/ (como style.css)
  • /scr/css/, /scr/images/, /scr/js/, /scr/minified/, /scr/photos/ NO SE BLOQUEAN por defecto (assets)
  • Bloquea URLs de perfiles de usuario y paginas de gestion de cuenta/anuncios
  • Bloquea EXPLICITAMENTE TODO lo que contenga un parametro de query string "?".
  • Esto atrapa /anuncios/?q=..., /usuario/N?pag=..., /?_gl=..., /anuncios-barcelona/?pag=... etc.
  • Crucial para reducir Crawl Budget y problemas de indexacion con parametros.
  • La directiva Crawl-delay (original de tu anterior robots.txt)
  • URLs de Sitemap - Confirma que sitemap.xml en la raiz es el indice principal correcto y funciona bien en GSC (sin barra)