
레스토랑, 여행, 렌터카…
스프레드시트의 편리함을 활용하여 단체 경비를 체계적으로 관리하세요.
Robots.txt 파일은 크롤러에게 사이트의 어떤 부분을 방문하고, 건너뛰고, 또는 페이지 가져오기를 시작하기 전에 특별한 규칙을 적용해야 하는지 알려줍니다.
이 도구를 사용하면 기본 크롤링 정책을 선택하고, 허용 및 차단 경로를 명시적으로 추가하고, 선택적으로 크롤링 지연 시간을 설정하고, 사이트맵 또는 호스트 지시문을 파일을 직접 작성하지 않고도 추가할 수 있습니다.
Robots.txt는 크롤링 지침이지 접근 제어 시스템이 아니므로, 민감한 콘텐츠는 인증이나 다른 서버 측 제한을 통해 보호해야 합니다.
크롤러마다 지원하는 지시문이 다릅니다. 예를 들어, `host` 지시문은 모든 크롤러에서 사용 가능한 것은 아니며, `crawl-delay` 지시문은 일부 봇에서 무시될 수 있으므로, 최종 규칙을 설정할 때는 반드시 사용하려는 크롤러를 기준으로 유효성을 검사해야 합니다.

더 많은 편의 시설이 준비되어 있습니다...
몇 가지 유틸리티를 선택하여 대시보드에 추가하세요.