lubmix.com.br
robots.txt

Robots Exclusion Standard data for lubmix.com.br

Resource Scan

Scan Details

Site Domain lubmix.com.br
Base Domain lubmix.com.br
Scan Status Ok
Last Scan2026-02-25T00:20:02+00:00
Next Scan 2026-03-27T00:20:02+00:00

Last Scan

Scanned2026-02-25T00:20:02+00:00
URL https://lubmix.com.br/robots.txt
Domain IPs 104.26.0.195, 104.26.1.195, 172.67.69.63, 2606:4700:20::681a:1c3, 2606:4700:20::681a:c3, 2606:4700:20::ac43:453f
Response IP 104.26.0.195
Found Yes
Hash 54a6bd35fe741421b40c8eba727278299f6c539d9c524721a19773ddfe9e7830
SimHash 003e4962e7a6

Groups

yandex
yandexbot

Rule Path
Disallow /

dotbot

Rule Path
Disallow /

gptbot

Rule Path
Disallow /

ahrefsbot
ahrefs

Rule Path
Disallow /

amazonbot
applebot-extended
bytespider
ccbot
claudebot
google-extended
meta-externalagent
ahrefsbot
mj12bot
semrushbot
dotbot
blexbot
ezooms
slurp
duckduckbot
baiduspider

Rule Path
Disallow /

googlebot

Rule Path
Allow /

bingbot

Rule Path
Allow /

*

Rule Path
Disallow /app/
Disallow /bin/
Disallow /dev/
Disallow /lib/
Disallow /pkginfo/
Disallow /report/
Disallow /setup/
Disallow /update/
Disallow /var/
Disallow /vendor/
Disallow /checkout/
Disallow /customer/
Disallow /wishlist/
Disallow /catalogsearch/
Disallow /admin/
Disallow /search/
Allow /media/
Allow /static/
Allow /pub/media/
Allow /pub/static/

Other Records

Field Value
sitemap https://www.lubmix.com.br/pub/media/sitemap/sitemap.xml

Comments

  • ===============================
  • Robots.txt para Magento 2 - SEO otimizado
  • Bloqueia bots conhecidos maliciosos (diretiva para crawlers que respeitam robots.txt)
  • ===============================
  • Bloquear completamente (para crawlers que respeitam robots.txt)
  • Outros bots conhecidos maliciosos / de scraping (aplicar mesma regra)
  • ===============================
  • Bots legítimos (permitir indexação)
  • ===============================
  • ===============================
  • Regras globais para todos os outros crawlers
  • ===============================
  • Bloquear áreas sensíveis do Magento 2
  • Bloquear paths que não agregam valor para SEO / que expõem dados ou criam carga
  • Observação: padrões com wildcard (ex: /*?*) nem sempre são suportados por todos os crawlers.
  • Se quiser bloquear URLs com query string para crawlers que suportam padrões, mantenha. Caso contrário,
  • considere usar X-Robots-Tag / noindex em páginas dinâmicas.
  • Permitir assets (imagens, CSS, JS)
  • Sitemap