
Restaurante, viajes, alquileres…
Organiza los gastos del grupo con la agilidad de una hoja de cálculo.
Un archivo robots.txt indica a los rastreadores qué partes de un sitio deben visitar, omitir o tratar con reglas especiales antes de comenzar a buscar páginas.
Esta herramienta le permite elegir una política de rastreo predeterminada, agregar rutas explícitas de permiso y denegación, establecer un retraso de rastreo opcional y agregar directivas de mapa del sitio o de host sin escribir el archivo a mano.
Robots.txt es una directiva de rastreo, no un sistema de control de acceso, por lo que el contenido confidencial debe estar protegido con autenticación u otras restricciones del lado del servidor.
Los distintos rastreadores admiten directivas diferentes. Por ejemplo, la directiva `host` no es universal y algunos bots pueden ignorar `crawl-delay`, así que siempre valida tus reglas finales con los rastreadores que te interesen.

Tenemos más utilidades para ti...
Seleccione varias utilidades y colóquelas en un tablero.