
Ristoranti, viaggi, noleggi…
Organizza le spese di gruppo con la flessibilità di un foglio di calcolo.
Un file robots.txt indica ai crawler quali parti di un sito devono visitare, saltare o trattare con regole speciali prima di iniziare a recuperare le pagine.
Questo strumento permette di scegliere una policy di indicizzazione predefinita, aggiungere percorsi espliciti da consentire e da non consentire, impostare un ritardo di indicizzazione facoltativo e aggiungere direttive sitemap o host senza dover modificare il file manualmente.
Robots.txt è una direttiva di indicizzazione, non un sistema di controllo degli accessi, pertanto i contenuti sensibili dovrebbero comunque essere protetti tramite autenticazione o altre restrizioni lato server.
I diversi crawler supportano direttive diverse. Ad esempio, la direttiva host non è universale e crawl-delay potrebbe essere ignorata da alcuni bot, quindi è sempre consigliabile validare le regole finali con i crawler che si intendono utilizzare.

Abbiamo altre utilità per te...
Seleziona più utilità e inseriscile in una dashboard.