
Ресторан, подорожі, оренда…
Організуйте групові витрати за допомогою гнучкості електронної таблиці.
Файл robots.txt повідомляє сканерам, які частини сайту слід відвідувати, пропускати або обробляти спеціальними правилами, перш ніж розпочати завантаження сторінок.
Цей інструмент дозволяє вибрати політику сканування за замовчуванням, додати явні шляхи дозволення та заборони, встановити додаткову затримку сканування та додати файл карти сайту або директиви хоста без написання файлу вручну.
Robots.txt — це директива сканування, а не система контролю доступу, тому конфіденційний контент все одно має бути захищений за допомогою автентифікації або інших обмежень на стороні сервера.
Різні сканери підтримують різні директиви. Наприклад, директива host не є універсальною, і деякі боти можуть ігнорувати crawl-delay, тому завжди перевіряйте свої остаточні правила для сканерів, які вас цікавлять.

У нас є більше корисних послуг для вас...
Виберіть кілька утиліт і розмістіть їх на панелі інструментів.