singles24.ch
robots.txt

Robots Exclusion Standard data for singles24.ch

Resource Scan

Scan Details

Site Domain singles24.ch
Base Domain singles24.ch
Scan Status Ok
Last Scan2025-03-12T23:52:43+00:00
Next Scan 2025-03-19T23:52:43+00:00

Last Scan

Scanned2025-03-12T23:52:43+00:00
URL https://singles24.ch/robots.txt
Redirect https://www.singles24.ch/robots.txt
Redirect Domain www.singles24.ch
Redirect Base singles24.ch
Domain IPs 212.243.197.119
Redirect IPs 212.243.197.119
Response IP 212.243.197.119
Found Yes
Hash a096e7f0736a618ba5d88a7c5cc9ecba8535fe44ef8d0bf092e18565b00393cd
SimHash e0ddbb08c172

Groups

*

Rule Path
Disallow /ajax
Disallow /batch
Disallow /click
Disallow /download
Disallow /flash
Disallow /images
Disallow /upload
Disallow /404.php
Disallow /deindeal
Disallow /deindeal.php
Disallow /anzeigen_erotik.php
Disallow /member_suchen.php
Disallow /events_edit_login.php
Disallow /events_monat.php
Disallow /rd.php
Disallow /events_detail.php
Disallow /fotos_swisscartrophy.php
Disallow /elitepartner.php
Disallow /astro2014.php
Disallow /scentoflove.php
Disallow /skyscraper.php
Disallow /events_edit.php
Disallow /show_notfound.php
Disallow /loveletter.php
Disallow /show_erotik.php
Disallow /astro2013.php
Disallow /links.php
Disallow /smschat.php

Comments

  • 16.06.15, Die alten Webseiten werden immer noch von Google gecrawlt, woher die die Info haben, weiss ich nicht
  • Allenfalls ist das noch bei Google hinterlegt von einem alten Crawling
  • Stand 15.06.15 führt dies zu 1209 Nicht gefunden Seiten unter dem Punkt Crawling Fehler im Webmastertool.
  • Es handelt sich dabei allerdings um eine aufsummierung über einen längeren Zeitraum (Monate), und die gleichen
  • Dateien werden immer wieder aufgelistet
  • Als Massnahme werden nun die Dateien unterbunden, die Liste mit den Fehlern habe ich gelöscht