
Рестораны, путешествия, аренда…
Организуйте групповые расходы с помощью удобной электронной таблицы.
Файл robots.txt указывает поисковым роботам, какие разделы сайта им следует посещать, пропускать или обрабатывать специальными правилами, прежде чем они начнут загрузку страниц.
Этот инструмент позволяет выбрать политику сканирования по умолчанию, добавить явно разрешенные и запрещенные пути, установить необязательную задержку сканирования, а также добавить директивы sitemap или host без необходимости писать файл вручную.
Robots.txt — это директива для сканирования, а не система контроля доступа, поэтому конфиденциальный контент по-прежнему следует защищать с помощью аутентификации или других ограничений на стороне сервера.
Разные краулеры поддерживают разные директивы. Например, директива host не является универсальной, и crawl-delay может игнорироваться некоторыми ботами, поэтому всегда проверяйте свои окончательные правила на тех краулерах, которые вас интересуют.

У нас для вас есть ещё больше полезных функций...
Выберите несколько утилит и разместите их на панели управления.