dialenga.com
robots.txt

Robots Exclusion Standard data for dialenga.com

Resource Scan

Scan Details

Site Domain dialenga.com
Base Domain dialenga.com
Scan Status Ok
Last Scan2025-11-22T00:54:33+00:00
Next Scan 2025-12-22T00:54:33+00:00

Last Scan

Scanned2025-11-22T00:54:33+00:00
URL https://dialenga.com/robots.txt
Domain IPs 192.124.249.112
Response IP 192.124.249.112
Found Yes
Hash 56e4e07c7cbfd125a208bf0515ff15d34d0e511611f882ab08e69c528a89e788
SimHash 6af4d994857b

Groups

*

Rule Path
Allow /wp-content/uploads/
Disallow /cgi-bin
Disallow /wp-content/plugins/
Disallow /wp-content/themes/
Disallow /wp-includes/
Disallow /wp-admin/
Disallow /wp-
Disallow /?s=
Disallow /search
Allow /feed/$
Disallow /feed
Disallow /comments/feed
Disallow /*/feed/$
Disallow /*/feed/rss/$
Disallow /*/trackback/$
Disallow /*/*/feed/$
Disallow /*/*/feed/rss/$
Disallow /*/*/trackback/$
Disallow /*/*/*/feed/$
Disallow /*/*/*/feed/rss/$
Disallow /*/*/*/trackback/$
Allow /*.js$
Allow /*.css$

googlebot-image

Rule Path
Allow /wp-content/uploads/

adsbot-google

Rule Path
Allow /

googlebot-mobile

Rule Path
Allow /

msiecrawler

Rule Path
Disallow /

webcopier

Rule Path
Disallow /

httrack

Rule Path
Disallow /

microsoft.url.control

Rule Path
Disallow /

libwww

Rule Path
Disallow /

noxtrumbot

No rules defined. All paths allowed.

Other Records

Field Value
crawl-delay 50

msnbot

No rules defined. All paths allowed.

Other Records

Field Value
crawl-delay 30

slurp

Rule Path
Disallow /tag
Disallow /category

Other Records

Field Value
crawl-delay 10

Other Records

Field Value
sitemap https://www.dialenga.com/sitemap_index.xml

Comments

  • robots.txt para un blog WordPress.
  • Bloquear o permitir acceso a contenido adjunto. (Si la instalación está en /public_html).
  • Desindexar carpetas que empiecen por wp-
  • Permitir sitemap pero no las búsquedas.
  • Permitir Feed general para Google Blogsearch.
  • Impedir que /permalink/feed/ sea indexado pues el feed de comentarios suele posicionarse antes de los post.
  • Impedir URLs terminadas en /trackback/ que sirven como Trackback URI (contenido duplicado).
  • Evita bloqueos de CSS y JS.
  • Lista de bots que deberías permitir.
  • Lista de bots que generan consultas abusivas aunque siguen las pautas del archivo robots.txt
  • Slurp (Yahoo!), Noxtrum y el bot de MSN que suelen generar excesivas consultas.
  • Deshabilitar las etiquetas y las categorías