konten

Cara Mengatasi Masalah Cakupan "Diindexs meski di blokir oleh robot.txt" | Google Console

web master tool di index di blokir robot


Sebelum masuk ke bagian inti pembahasan ini, ada baiknya sedikit memahami Robot.txt , hanya sebagai referensi,karna jika kita ingin memperbaiki masalah yang berhubungan dengan error atau peringatan robot.txt maka hal yang paling mendasar adalah memahami fungsi dasarnya ;


Fungsi Robot.txt ? 

Robot yang satu ini cukup menjadi misteri keberadaannya, karna tak seorang pun pernah melihat wujud nyata dari si robot. Karna keberadaannya yang cukup misterius, maka hal ini yang membuat para blogger pemula sedikit kalang kabut mengatasinya.Untuk menjelajahi jutaan website yang ada di seluruh dunia, mesin penelusur seperti google memanfaatkan Robot.txt dalam membantu mereka mengenal setiap bagian pada website , sehingga ini memudahkan kunjungan yang di lakukan para mesin penelusur untuk setiap bagiannya. Ketika mesin penelusur seperti google mengunjungi website kita, maka yang pertama kali di kunjungi adalah file Robot.txt, dengan begitu  mesin penelusur jadi tahu apa yang harus di lakukan, bagian mana yang boleh dan tidak boleh di rayapi oleh si crawler.

Sebenarnya artikel kali ini hanya sekedar menjawab rasa penasaran para blogger pemula seperti saya yang kerap saja di buat penasaran dengan munculnya peringatan "Diindexs, meski di blokir robot.txt ". Alasan kedua artikel ini di buat karna keyword pencarian yang lumayan banyak, udah itu aja alasan kenapa munculnya tulisan ini.

Menurut bantuan google yang sudah saya baca berpuluh-puluh kali yang membahas masalah ini, jawaban para mastah cukup simpel " jika muncul peringatan tersebut cukup di abaikan saja, karna itu memang sudah bawaan dari blog yang kita punya".

Apa dampaknya  untuk blog ?

Sejauh ini belum ada yang mengeluhkan pengaruh dari "Diindex ,meski di blokir robot.txt". Tapi rasanya kurang enak di pandang jika kita membuka google console ,masuk ke cakupan ,kemudian melihat ada peringatan warna kuning " Valid dengan peringatan", kayanya ada yang kurang, kurang indah di pandang. Waktu awal ngeblog liat peringatan begituan pasti langsung panik, jadi ninja, buka tab baru, terus ngetik di pencarian dengan kata kunci "apa itu, cara setting,cara cek, bagaimana cara mengatasi di index meski di blokir robot txt ,bahkan ada yang mencari dengan kata kunci ' cara melihat bla bla bla , " ,berdasarkan pengalaman :), kalem.

Penyebab Munculnya peringatan ?

Biar pertanyaan-pertanyaan di benak semuanya terjawab, maka gak ada salahnya kita telisik lebih dalam. Alasan munculnya peringatan tersebut di karenakan; Meta tag yang di gunakan , Halaman label yang memang seharusnya di blokir oleh robot.txt bawaan dari blog , pada bagian label search 

Pada bagian itu memang sudah seharusnya tidak di index, tapi lain cerita jika halaman dan bagian lainnya yang mengalami status pringatan.

Bagaimana Cara Memperbaiki " Diindexs meski di blokir robot.txt ? 


Langkah : 
  1.     Masuk ke blogger dashboard
  2.     pilih > Tema > Edit Html ;
  3.     Setelah masuk ke edit html, cari kode ;
<meta content='noindex' name='robots' /> (Umumnya terletak di antara <head>.....</head>Hapus kode ini dari template ,kemudian save template)

      4. Jika sudah di save, kemudian kembali lagi ke google console, silahkan lakukan validasi
      5. Selesai

Sekarang tinggal menunggu validasi dari google, biasanya peringatan tersebut akan hilang beberapa hari kedepan.  

Masih ada cara lain ?

Masih ada ,cukup simpel dan tak perlu mutar-mutar ke edit tema, cukup mengotak atik Setelan pada blogger;

Langkah :
  1. karna kita sudah berada di dashboard ,maka
  2. Masuk ke Setelan
  3. Cari Robot.txt khusus 
  4. klik edit pada bagian tersebut
  5. Jika disana ada tulisan "Disallow:/search" ,jika sudah ketemu ,ganti kata Disallow menjadi Allow .
  Apakah sudah selesai ? ; FINISH

Lakukan langkah validasi dan lihat hasilnya beberapa hari kedepan, biasanya kurang dari 3 hari proses validasi sudah selesai, dan akan hilang peringatan tersebut.

Apakah perbaikan ini sangat perlu ?

Mungkin ada sebagian dari blogger yang perfeksionis, jadi apapun sesuatu yang dirasa mengganggu dan kurang enak di pandang maka harus segera di perbaiki. Sejauh ini saya sendiri tidak pernah merasakan dampak penurunan trafik ada dampak negatif lainnya dari masalah ini. Jadi perlu atau tidaknya, menurut saya pribadi ; perbaikan ini hanya sebagai bentuk pencegahan hal yang tidak di inginkan kedepannya.


Tampilkan Komentar
Sembunyikan Komentar

0 Response to "Cara Mengatasi Masalah Cakupan "Diindexs meski di blokir oleh robot.txt" | Google Console"

Post a comment

ads

Iklan Tengah Artikel 1

Iklan Tengah Artikel 2

Iklan Bawah Artikel