
रेस्तरां, यात्रा, किराये पर लेना…
स्प्रेडशीट की तरह आसानी से समूह के खर्चों को व्यवस्थित करें।
Robots.txt फ़ाइल क्रॉलर को बताती है कि पेज फ़ेच करना शुरू करने से पहले उन्हें साइट के किन हिस्सों पर जाना चाहिए, किन हिस्सों को छोड़ना चाहिए या किन हिस्सों के साथ विशेष नियमों का पालन करना चाहिए।
यह टूल आपको डिफ़ॉल्ट क्रॉल नीति चुनने, स्पष्ट रूप से अनुमति देने और अस्वीकार करने वाले पथ जोड़ने, वैकल्पिक क्रॉल विलंब सेट करने और फ़ाइल को मैन्युअल रूप से लिखे बिना साइटमैप या होस्ट निर्देश जोड़ने की सुविधा देता है।
Robots.txt एक क्रॉल निर्देश है, न कि एक्सेस-कंट्रोल सिस्टम, इसलिए संवेदनशील सामग्री को अभी भी प्रमाणीकरण या अन्य सर्वर-साइड प्रतिबंधों के साथ सुरक्षित रखा जाना चाहिए।
अलग-अलग क्रॉलर अलग-अलग निर्देशों का समर्थन करते हैं। उदाहरण के लिए, होस्ट निर्देश सार्वभौमिक नहीं है और क्रॉल-डिले को कुछ बॉट अनदेखा कर सकते हैं, इसलिए अपने अंतिम नियमों को हमेशा उन क्रॉलरों के विरुद्ध सत्यापित करें जिनकी आपको परवाह है।

हमने आपके लिए और भी सुविधाएं उपलब्ध कराई हैं...
कई यूटिलिटीज का चयन करें और उन्हें डैशबोर्ड में रखें।