
Restaurants, Reisen, Vermietungen…
Organisieren Sie Gruppenausgaben so einfach wie mit einer Tabellenkalkulation.
Eine robots.txt-Datei teilt Crawlern mit, welche Teile einer Website sie besuchen, überspringen oder mit speziellen Regeln behandeln sollen, bevor sie mit dem Abrufen von Seiten beginnen.
Mit diesem Tool können Sie eine Standard-Crawling-Richtlinie auswählen, explizite Zulassungs- und Sperrpfade hinzufügen, eine optionale Crawl-Verzögerung festlegen und Sitemap- oder Host-Direktiven anhängen, ohne die Datei manuell schreiben zu müssen.
Die robots.txt-Datei ist eine Crawling-Anweisung und kein Zugriffskontrollsystem. Daher sollten sensible Inhalte weiterhin durch Authentifizierung oder andere serverseitige Beschränkungen geschützt werden.
Verschiedene Crawler unterstützen unterschiedliche Direktiven. Beispielsweise ist die Host-Direktive nicht universell, und die Crawl-Verzögerung wird von manchen Bots möglicherweise ignoriert. Überprüfen Sie daher Ihre endgültigen Regeln immer mit den Crawlern, die für Sie relevant sind.

Wir haben weitere nützliche Funktionen für Sie...
Wählen Sie mehrere Hilfsprogramme aus und ordnen Sie diese einem Dashboard zu.