
Restaurants, reizen, verhuur…
Organiseer groepsuitgaven met het gemak van een spreadsheet.
Een robots.txt-bestand vertelt crawlers welke delen van een site ze wel, niet of alleen met speciale regels mogen behandelen voordat ze pagina's gaan ophalen.
Met deze tool kunt u een standaard crawlbeleid kiezen, expliciete toegestane en niet-toegestane paden toevoegen, een optionele crawlvertraging instellen en sitemap- of hostrichtlijnen toevoegen zonder het bestand handmatig te hoeven schrijven.
Robots.txt is een crawl-richtlijn, geen toegangscontrolesysteem. Gevoelige inhoud moet daarom nog steeds worden beschermd met authenticatie of andere serverbeperkingen.
Verschillende crawlers ondersteunen verschillende richtlijnen. De host-richtlijn is bijvoorbeeld niet universeel en crawl-delay kan door sommige bots genegeerd worden. Controleer daarom altijd je uiteindelijke regels voor de crawlers die voor jou relevant zijn.

We hebben nog meer handige functies voor u...
Selecteer een aantal hulpprogramma's en plaats ze in een dashboard.