# Beispiel einer robots.txt # Datei ROBOTS.TXT wird von Spidern oder Robots auf dem Account gesucht wenn Sie Ihre Webseiten bei einem MetaCrawler/Spider eingetragen haben, so wird die robots.txt automatisch von diesem Suchmaschinen-Robot beim Besuch Ihrer Webseiten durchsucht! Ist sie nicht zu finden dann werden ggf. all Ihre Verzeichnisse ausgelesen und indiziert und gelistet. # Spider oder Robots durchsuchen das Internet bzw. angemeldete Accounts in regelmässigen Abständen, um zu prüfen ob die Accounts noch existieren oder sich etwas geändert hat bei Ihrem Webangebot, um u.a. die Aktualität der Suchmaschinen-Datenbanken aufrecht zu erhalten. # Zeilen in dieser robots.txt die mit einer "#" versehen sind, werden vom Robot nicht abgearbeitet bzw. ignoriert! # Hier können Sie mit dem "Disallow:" weitere Verzeichnisse direkt schützen # die nicht vom Suchmaschinen-Robots gelistet werden sollen oder indiziert als Eintrag in # der SuchmaschineUser-agent: *Disallow: /cgi-bin/Disallow: /images/Disallow: /logs/ # z.b. Disallow: /mein-nicht-angezeigtes-verzeichnis/ # Hier könnten noch folgende Einschränkungen gemacht werden! # User-agent: Scooter # Disallow: /
Se han encontrado las siguientes palabras clave. Comprueba si esta página está bien optimizada para cada palabra clave en concreto.
(Deseable)