
Restaurant, voyages, locations…
Organisez les dépenses du groupe avec la facilité d'un tableur.
Un fichier robots.txt indique aux robots d'exploration quelles parties d'un site ils doivent visiter, ignorer ou traiter avec des règles spéciales avant de commencer à récupérer les pages.
Cet outil vous permet de choisir une politique d'exploration par défaut, d'ajouter des chemins d'accès autorisés et interdits explicites, de définir un délai d'exploration optionnel et d'ajouter des directives de plan de site ou d'hôte sans avoir à écrire le fichier manuellement.
Le fichier robots.txt est une directive d'exploration, et non un système de contrôle d'accès ; par conséquent, les contenus sensibles doivent toujours être protégés par une authentification ou d'autres restrictions côté serveur.
Les différents robots d'exploration prennent en charge différentes directives. Par exemple, la directive `host` n'est pas universelle et `crawl-delay` peut être ignorée par certains robots. Il est donc essentiel de toujours valider vos règles finales auprès des robots d'exploration qui vous intéressent.

Nous avons d'autres services publics pour vous...
Sélectionnez plusieurs utilitaires et placez-les dans un tableau de bord.