
Restauracje, podróże, wynajem…
Organizuj grupowe wydatki z łatwością, jaką daje arkusz kalkulacyjny.
Plik robots.txt informuje roboty, które części witryny powinny odwiedzić, pominąć lub traktować według specjalnych reguł przed rozpoczęciem pobierania stron.
To narzędzie umożliwia wybranie domyślnej polityki indeksowania, dodanie jawnych ścieżek dozwolonych i zabronionych, ustawienie opcjonalnego opóźnienia indeksowania oraz dołączenie dyrektyw mapy witryny lub hosta bez konieczności ręcznego pisania pliku.
Plik robots.txt to dyrektywa indeksowania, a nie system kontroli dostępu, dlatego wrażliwe treści powinny być chronione za pomocą uwierzytelniania lub innych ograniczeń po stronie serwera.
Różne roboty indeksujące obsługują różne dyrektywy. Na przykład dyrektywa hosta nie jest uniwersalna, a opóźnienie indeksowania może być ignorowane przez niektóre boty, dlatego zawsze weryfikuj swoje ostateczne reguły względem robotów, na których Ci zależy.

Mamy dla Ciebie jeszcze więcej narzędzi...
Wybierz kilka narzędzi i umieść je na pulpicie nawigacyjnym.