### robots.txt ### # Alle Robots ansprechen User-agent: * # URL der XML Sitemap mitteilen Sitemap: http://www.maik-beinert/sitemap.xml # Nicht indexieren aller Dateien in folgenden Verzeichnissen Disallow: /admin Disallow: /cgi-bin Disallow: /doc Disallow: /auto Disallow: /install Disallow: /lib Disallow: /modules Disallow: /plugins Disallow: /tmp Disallow: /phpRechnung Disallow: /design Disallow: /forum Disallow: /uploads Disallow: /software Allow: /tmp/cache/* # Zugriff auf spezielle Module verbieten, um Duplicate Content zu vermeiden Disallow: /*?mact=Printing*$ Disallow: /*?mact=Search*$ Disallow: /*?mact=News*$ # Google Image erlauben alle Bilder zu indexieren User-agent: Googlebot-Image Disallow: / Allow: /images/* #Allow: /uploads/images/* # Archivierung der Seite f?r archive.org unterbinden User-agent: ia_archiver Disallow: / # Digg Mirror unterbinden (Duplicate Content) User-agent: duggmirror Disallow: / ### Eine kleine Hilfe ### # Values for "User-agent:" # Google: Googlebot # Google Bildersuche: Googlebot-Image # Yahoo: slurp # Bing: MSNbot # Exalead: ExaBot # Archive.org: ia_archiver # Digg Mirror: duggmirror ### Ende der Hilfe ### ### EOF ###
Following keywords were found. You can check the keyword optimization of this page for each keyword.
(Nice to have)