Fungsi tag user-agent
dalam file robots.txt
adalah untuk menentukan aturan yang berlaku untuk crawler atau bot tertentu. Tag ini memungkinkan Anda untuk mengontrol akses crawler ke berbagai bagian situs web Anda.
Berikut adalah cara kerja tag user-agent
:
-
Menentukan crawler target: Anda memulai dengan menentukan crawler mana yang ingin Anda targetkan dengan aturan tertentu. Hal ini dilakukan dengan menuliskan nama crawler setelah
user-agent:
. Misalnya, untuk menargetkan Googlebot, Anda akan menulis:User-agent: Googlebot
-
Menentukan aturan akses: Setelah menentukan crawler, Anda kemudian menentukan aturan akses yang berlaku untuk crawler tersebut. Aturan ini biasanya terdiri dari dua perintah utama:
-
Allow: Memungkinkan crawler untuk mengakses bagian situs web tertentu. Misalnya, untuk mengizinkan Googlebot mengakses semua halaman di situs web Anda, Anda akan menulis:
User-agent: Googlebot Allow: /
-
Disallow: Melarang crawler mengakses bagian situs web tertentu. Misalnya, untuk melarang Googlebot mengakses direktori
/admin
di situs web Anda, Anda akan menulis:User-agent: Googlebot Disallow: /admin
-
Beberapa contoh penggunaan tag user-agent
:
-
Memblokir semua crawler:
User-agent: * Disallow: /
-
Mengizinkan hanya Googlebot:
User-agent: Googlebot Allow: /
-
Melarang Googlebot mengakses direktori tertentu:
User-agent: Googlebot Disallow: /admin Disallow: /private
Penting untuk diperhatikan:
- Crawler tidak selalu mematuhi aturan yang ditetapkan dalam
robots.txt
. robots.txt
hanya mengontrol akses crawler, bukan pengguna biasa.- Untuk mencegah konten muncul di hasil pencarian, Anda perlu menggunakan metode lain seperti tag
noindex
ataunofollow
.
Posting Komentar untuk "Fungsi Tag User-Agent di robots.txt"