
رستوران، مسافرت، اجاره ...
هزینههای گروهی را با چابکی یک صفحه گسترده سازماندهی کنید.
یک فایل robots.txt به خزندهها میگوید که قبل از شروع به دریافت صفحات، باید از کدام قسمتهای سایت بازدید کنند، از آنها صرف نظر کنند یا با قوانین خاصی با آنها برخورد کنند.
این ابزار به شما امکان میدهد یک سیاست خزش پیشفرض انتخاب کنید، مسیرهای مجاز و غیرمجاز صریح اضافه کنید، یک تأخیر خزش اختیاری تنظیم کنید و دستورالعملهای نقشه سایت یا میزبان را بدون نوشتن دستی فایل اضافه کنید.
Robots.txt یک دستورالعمل خزش است، نه یک سیستم کنترل دسترسی، بنابراین محتوای حساس همچنان باید با احراز هویت یا سایر محدودیتهای سمت سرور محافظت شود.
خزندههای مختلف از دستورالعملهای متفاوتی پشتیبانی میکنند. برای مثال، دستورالعمل میزبان (host) جهانی نیست و ممکن است برخی از رباتها crawl-delay را نادیده بگیرند، بنابراین همیشه قوانین نهایی خود را در برابر خزندههایی که برایتان مهم هستند، اعتبارسنجی کنید.

کلی امکانات دیگه هم براتون داریم...
چندین ابزار کاربردی را انتخاب کنید و آنها را در یک داشبورد قرار دهید.