Autor | just59 |
Datum | 07.07.2011 21:30 |
Beiträge: | Hm trotz Sperre in der robots.txt werden PDF Dateien bei Google aufgenommen und dann in den Suchergebnissen angezeigt. Hier ein Beispiel: http://www.google.de/search?q=%22N%C3%BCrnberger%22+AND+Versicher&num=100&hl=de&lr=lang_de&tbs=lr:lang_1de,qdr:d&prmd=ivns&source=lnt&sa=X&ei=MExiTfu3GsGt8gO75eXxCA&ved=0CBUQpwUoAg (Anzeige kann natürlich bei Euch schon wieder anders aussehen.)
Ist da ein Fehler oder gibt es da eine Möglichkeit wo man dies auch verhindern kann. JUSt just-info / Mein Gartenverein Portal für Gartenfreunde... Suse 10.1, PHP 5.2.10 und MySQL 5.0.67.,Administration 2.5.1 [Iphigenie] (Revision 4533) |
Autor | Gast |
Datum | 09.07.2011 06:14 |
Beiträge: | Ist da ein Fehler oder gibt es da eine Möglichkeit wo man dies auch verhindern kann. ich denke ja Mit dem User-agent: * sperrst du deine angegebenen Verzeichnisse für alle Bots und Spider, das ist korrekt. Danach schreibst du jedoch User-agent: googlebot Disallow: /safetytrap Der Googlebot hält sich an deine Anweisung, da du die ja für den Googlebot explizit definiert hast. Das Verzeichnis /safetytrap wird nicht mehr durchsucht, jedoch alles andere. Nimm also den Eintrag vom Googlebot weg, oder ergänze diesen mit den Verzeichnisse welche nicht durchsucht werden sollen und warte ein paar Tage. Teste das ganzen über die Webmastertools. Flash |
Diese Seite drucken Diese Seite schließen |
Dieser Artikel kommt von: OpenPHPNuke - das Open Source CMS |
http://www.openphpnuke.info/ |