Baiduspider crawlt meine Website, auch wenn dies von robots.txt verboten ist. Wie kann ich dies verhindern? [duplizieren]

Diese Frage hat hier bereits Antworten :

Kommentare

  • Baidu benimmt sich oft ziemlich gut. Da Baidu eine japanisch / chinesische Suchmaschine ist, die hauptsächlich aus China stammt, verwenden einige Schaber möglicherweise den Namen des Agenten und werden Schurke. Dies kann sein, was Sie sehen. Andernfalls muss ich dies weiter untersuchen.

Antwort

Sie können versuchen, bestimmte IP-Adressen zu blockieren in Ihrer .htaccess-Datei. Die Bereiche finden Sie hier .

In robots.txt können Sie auch die folgenden

Wenn Sie Caching-Plugins oder CDN verwenden, müssen Sie auch den gesamten Cache leeren.

Kommentare

  • Nur die erste User-agent: Baiduspider sollte erforderlich sein, um alle Baidu-Spinnen zu blockieren (" eine Übereinstimmung zwischen Teilzeichenfolgen ohne Berücksichtigung der Groß- und Kleinschreibung " gemäß dem " Standard " und Baidu unterstützt angeblich die " Standard "). Dies wird in den Baidu-Hilfedokumenten angegeben. Es kann jedoch einige Tage dauern, bis die Spinne die Änderung an robots.txt

Antwort

Ich denke, das Problem mit Ihrer Umschreiberegel ist das OR -Flag. Dieses Flag bedeutet normalerweise, dass eine zweite Umschreibungsbedingung bevorsteht. Sie haben nur eine Bedingung.

Hier ist eine Site , die eine ähnliche Regel zum Blockieren von BaiduSpider mit etwas anderer Syntax bietet:

RewriteEngine On RewriteCond %{HTTP_USER_AGENT} ^Baiduspider.* [NC] RewriteRule .* - [F] 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.