
Restaurante, viagens, aluguéis…
Organize as despesas do grupo com a agilidade de uma planilha.
Um arquivo robots.txt informa aos rastreadores quais partes de um site eles devem visitar, ignorar ou tratar com regras especiais antes de começarem a buscar páginas.
Esta ferramenta permite que você escolha uma política de rastreamento padrão, adicione caminhos explicitamente permitidos e bloqueados, defina um atraso de rastreamento opcional e anexe diretivas de sitemap ou host sem precisar escrever o arquivo manualmente.
O arquivo robots.txt é uma diretiva de rastreamento, não um sistema de controle de acesso, portanto, conteúdo sensível ainda deve ser protegido com autenticação ou outras restrições do lado do servidor.
Diferentes rastreadores suportam diferentes diretivas. Por exemplo, a diretiva `host` não é universal e a diretiva `crawl-delay` pode ser ignorada por alguns bots, portanto, sempre valide suas regras finais em relação aos rastreadores que você considera importantes.

Temos mais serviços para você...
Selecione vários utilitários e coloque-os em um painel.