
Restoran, perjalanan, penyewaan…
Kelola pengeluaran kelompok dengan mudah menggunakan spreadsheet.
File robots.txt memberi tahu perayap bagian mana dari situs yang harus mereka kunjungi, lewati, atau perlakukan dengan aturan khusus sebelum mereka mulai mengambil halaman.
Alat ini memungkinkan Anda memilih kebijakan perayapan default, menambahkan jalur izin dan larangan eksplisit, mengatur penundaan perayapan opsional, dan menambahkan arahan sitemap atau host tanpa menulis file secara manual.
Robots.txt adalah arahan perayapan, bukan sistem kontrol akses, jadi konten sensitif tetap harus dilindungi dengan otentikasi atau pembatasan sisi server lainnya.
Berbagai crawler mendukung arahan yang berbeda. Misalnya, arahan host tidak bersifat universal dan crawl-delay mungkin diabaikan oleh beberapa bot, jadi selalu validasi aturan akhir Anda terhadap crawler yang Anda gunakan.

Kami punya lebih banyak fasilitas untuk Anda...
Pilih beberapa utilitas dan letakkan di dasbor.