Salah satu cara untuk memblokir search engine (Google, Yandex, MSN, Yahoo, dll) dengan memanfaatkan robots.txt. Bila biasanya anda membuat file robots.txt secara manual, dengan menambah konfigurasi di nginx bisa tanpa perlu menambah file apapun.

Konfigurasi Robots.txt

Konfigurasi standart untuk memblokir semua mesin pencari dengan robots.txt

User-agent: *
Disallow: /

Untuk memblokir hanya mesin pencari Bing

User-agent: BingBot
Disallow: /

Untuk memblokir hanya mesin pencari Google

User-agent: GoogleBot
Disallow: /

Setting Robots.txt di Nginx

Di konfigurasi nginx untuk domain anda, tambahkan

location = /robots.txt {                                                                                        
    add_header Content-Type text/plain;                                                                           
    return 200 "User-agent: *\nDisallow:  /\n";
}

cek konfigurasi anda

nginx -t

bila tidak ada error, reload nginx

systemctl reload nginx

Buka http://nama-domain/robots.txt
tampilan robots.txt

Penutup

Dengan memblokir search engine di robots.txt tidak serta merta langsung menghilangkan website anda dari index mesin pencari, karena itu tergantung dari mesin pencari apakah mereka mengikuti aturan main robots.txt atau tidak. Untuk Google sendiri, biasanya 1-2 minggu setelah setting robots.txt ini website anda akan hilang dari Google.

Solusi lain agar website anda tidak bisa diindex oleh mesin pencari adalah dengan menambahkan Basic Auth

Leave a comment

Your email address will not be published. Required fields are marked *