konten

Cara Ampuh Artikel Terindex Google Kurang Dari 1 Menit | Tips Rahasia Para Webmaster


mengindeks artikel dengan cepat
Untuk memahami cara kerja search engine dalam melakukan index, maka kita harus memahami alogaritma  mereka. Alogaritma search engine berdasarkan logika pembuatnya, yaitu seorang manusia, jadi sudah jelas alogaritma yang di buat berdasarkan dari logika manusia yang kemudian di terjemahkan kedalam cara berfikir sebuah engine.

Siapa yang tidak mau artikel yang sudah di publish cepat terindex ?, pertanyaan ini dirasa kurang tepat bagi yang sudah bersusah payah menulis artikel yang kemudian ingin artikelnya di baca oleh banyak orang. Masalah yang sering di keluhkan ketika memanfaatkan platform blogging untuk melakukan publikasi artikel di antaranya; google membutuhkan waktu yang lama untuk mengindex artikel, sudah berminggu-minggu postingan tidak kunjung di index search engine, google tak kunjung mengindex artikel padahal sudah postingan sudah di publish seminggu sebelumnya.

Masalah-masalah ini sering terjadi, bahkan tidak hanya dari beberapa tahun lalu, saat artikel ini di tulis juga, masih banyak yang mengeluhkan masalah serupa, terbukti dari hampir setiap saat munculnya kata kunci serupa pada tools yang saya gunakan untuk memantau pencarian di search engine seperti google. dalam sehari ada sekitar ribuan orang yang mencari solusi untuk masalah tersebut di penelusuran. Ada banyak yang sudah membahas tentang keluhan ini, sampai-sampai apa yang disampaikan pun rata-rata memiliki kesamaan sekitar 90% dari setiap postingannya.

Mengenal Index Search Engine dan Cara kerjanya;

Mesin pencarian seperti google memiliki beberapa tahapan sebelum mereka benar-benar mengindex sebuah website atau postingan artikel. Ketika website dan konten di terbitkan, pihak search engine tidak semerta-merta langsung melakukan index, perlunya pemetaan jalur terlebih dahulu agar proses index dapat dilakukan. Dengan alogaritma canggihnya, google bot akan mengutus para spider bot atau crawler untuk melakukan perayapan agar jalur index nantinya dapat di buat lebih efisien. Crawler akan melakukan proses perayapan untuk mendapatkan informasi mengenai website, kemudian informasi ini akan di jadikan landasan dalam proses index yang nantinya di lakukan, dari mana akan memulai dan mengakhiri index ketika sedang berlangsung.

Setelah proses crawling selesai, informasi didapat seperti struktur data, peta situs, dan informasi penting lainnya menyangkut identitas website, proses selanjutnyanya akan di lakukan pengindeksaan sesuai dengan data yang di peroleh pada saat crawling di lakukan.


Sebenarnya ini masalah yang memiliki banyak faktor, ada puluhan bahkan ratusan faktor yang menyebabkan postingan lama terindex oleh mesin pencari. Mari kita coba identifikasi masalah umum yang sering membuat postingan kita seret saat di index;
  • Terdapat banyak konten Duplikat
Masalah ini umum terjadi pada penulis pemula yang memanfaatkan blog sebagai sarana tempat menuangkan pikiran dan segala apa yang ingin di tulis. Konten yang sering mengalami banyak duplikat, misalnya konten tutorial, berita harian, review produk, wallpaper, biografi, dan masih ada yang lainnya. Apakah ini wajar ?; sebenarnya gak ada situs ,web, blog yang tidak memiliki duplikat konten.

Ada 2 jenis duplikat konten yang memang sudah di kenal dari jaman nenek moyang yang memanfaatkan plaatform webblog sebagai wadah menulis artikel;
  1. Duplikat konten yang berasal dari luar
  2. Duplikat yang berasal dari dalam
Search engine juga ternyata sangat bijak dalam menilai setiap konten, oleh sebab itu, semua webmaster search engine sekarang  mengharuskan menambahkan property domain dan url pada saat kita masuk ke tampilan webmaster seperti milik google, misalnya pada blog ini, saat pertama di buat menggunakan property domain yura46.blogspot.com , property url nya ada beberapa buah ; https://yura46.blogspot.com, ada yang berakhiran .co.id, ada yang berawalan http, jadi jumlah property dalam blog ini sebelum costum domain ada 5 property, kemudian setelah di costum  muncul lagi domain dan url property baru; yura46.site, ada yang berawalan www, https, http, semuanya saya masukan ke webmaster tool, ini agar mempermudah pihak serach engine dalam mengidentifikasikan duplikat ketika terdapat masalah seperti duplikat konten, dengan begitu ketika si mbah google menemukan konten dari property yang berawalan www, dengan https, beliau jadi tahu bahwa ini milik satu orang, jadi bisa dengan cepat di proses, kemudian di index.

seperti yang kita tahu ,search engine itu memiliki alogaritma untuk memperoses data, misalnya ; mana yang lebih mudah menghitung variabel yang sudah di temukan atau ada variabel yang hilang  contoh sederhana mana yang lebih muda 1+1-.... =1 atau 1+1-1=1 , alogaritma selalu memiliki rumus untuk mencari nilai true atau false , akan lebih panjang prosesnya jika di jabarkan dalam rumus untuk mencari variabel yang kosong, tapi jika semua variabel sudah teridentifikasi ,maka dapat dengan segera di dapatkan nilainya. Begitu lah yang di sampaikan oleh seorang pakar search engine yang saya temukan di sebuah forum, bahwa submit property itu sangat penting untuk semua property yang mengarah ke satu webblog.

Beda cerita kalau konten duplikat berasal dari luar. Makin banyaknya duplikat makin lama juga di index, meskipun di index akan berada di urutan serp paling bawah tergantung presentase duplikatnya, bahkan bisa saja setelah di index beberapa hari kemudian langsung di deindex.

Alogaritma serach engine selalu mengutamakan konten yang original, misalnya dalam sebuah antrian, anggap aja artikel yang ingin di index masuk ke barisan antrian seperti lagi ngantri sembako, jumlah antrian ada ribuan , sementara artikel yang di submit masuk ke antrian 10, karna terdeteksi duplikat konten, maka artikel tersebut di pisahkan , kemudian di suruh ngantri paling belakang, waktunya jadi makin lama dalam antrian.

Artikel kemudian di index pada antrian pertama, ketika alogaritma search engine yang lain mampir, bisa kita ibaratkan setelah masuk antrian pengindexan artikel tersebut lolos, kemudian masuk ke antrian kedua, menghitung presentase duplikat, ketika terdapat melebihi ketentuan search engine, maka langsung di pisahkan dari antrian dan langsung di masukkan ke daftar penalty , bahkan daftar deindex, pupus sudah, di hapus dari search engine.

Garis besar kemungkinan kurang lebih seperti ini; konten 1A : 2B = konten 1A dan 2B = bebas duplikat=1A 2B index, jika konten 1A : 2A = konten 2A adalah konten 1A= 2A diindex lama kemudian deindex, konten 1A : 2B = konten 1A100%A konten 2B30%A=  2B di index lumayan lama, masuk kedaftar hitam peringatan penalty, jika terulang terus menerus sampai pada ambang batas, deindex.
  • Usia Domain 
 Logikanya, ketika ingin di kenal otoritas tertinggi , maka hal pertama yang harus di lakukan adalah dengan cara memiliki identitas dan berbagai bentuk tanda pengenal, bagaimana penerapannya di dalam dunia website, nah itu tadi, dengan cara mendaftarkan menjadi salah satu property ke search engine melalui webmaster tool, semakin berumur, maka semakin banyak pengalaman dan semakin dikenal. Search engine mengibaratkan domain seperti layaknya orang baru yang tinggal dalam sebuah pemukiman search engine, perlu adanya kelengkapan identitas dan beradaptasi. Usia domain yang masih baru, search engine beranggapan bahwa prioritas utama adalah para tetua, sedangkan domain baru di tempatkan pada antrian belakang. Oleh sebab itu, agar cepat mendapatkan index dari google, backlink sangat di butuhkan agar sebagai cara untuk memperkenalkan domain baru ke google, semakin banyak backlink, semakin cepat dikenal google, dan search engine menganggap ini adalah domain penting yang harus menjadi daftar prioritas pengindexan.
  • Hyperlink
ini akan menjadi salah satu jalur ketika google berkenalan dengan domain baru atau artikel baru. semakin banyaknya hyperlink, maka semakin besar juga kecepatan index. anggap hyperlink adalah vote suara, ketika kita membuat artikel baru hyperlink ini membantu memperkenalkan kepada google, dari tautan si A " mbah-mbah, si anu ada postingan baru tuh" si B " mbah harus baca itu artikel si anu", si C " semenit yang lalu ada artikel di posting mbah, tolong di index dong", kemudian si mbah juga berfikir " jadi penasaran gue,kayanya artikelnya penting".

Semakin bertambahnya jumlah tautan link, proses dan kecepatan index  pun akan menjadi semakin bertambah seiring waktu.Hyperlink disini bisa dalam bentuk;
  1. Internal Link
  2. Eksternal 
  3. backlink 
 jumlah link pun mempengaruhi kecepatan index dalam sebuah postingan, tempat menanam backlink, dan eksternal link kemana link tersebut mengarah.

Dengan mengidentifikasi faktor utama index, maka bisa dengan mudah mengambil langkah agar blog dan postingan mudah dan cepat di index, 
Bagaimana Caranya Agar Artikel Terindex Kurang Dari 1 Menit ;
Jika di lihat dari cara kerja google bot melakukan proses perayapan sebelum melakukan index, maka kita hanya butuh memanipulasi kecepatan crawling sampai index dengan membantu setiap tahapan proses tersebut seperti;
  1. Mendaftar ke layanan webmaster
  2. membuat jalur berupa sitemap, semakin banyak sitemap, maka informasi dengan mudah di dapatkan oleh crawler.
  3. submit url 
  4. membuat konten yang bebas duplikat
  5. Merapikan struktur data yang berantakan
  6. membangun backlink dan tautan pada setiap postingan artikel dengan cara, sharing di berbagai platform sosial media, sosial bookmarking, direktori, 
dengan melakukan hal di atas, tidak secara langsung kita sudah memangkas tahapan perhitungan alogaritma crawler dan membantu mempercepat proses crawling, dengan begitu pengindeksaan dapat di lakukan dengan cepat.

Intinya gak seribet birokrasi di negara berflower, coba bayangkan jika search engine mengharuskan kita membayar setiap tahapan proses di atas, akan lain lagi ceritanya.

Tanpa Daftar Property , Tanpa submit url, Tanpa optimasi apa bisa Webblog dan Artikel Di Crawl dan di Index  Kemudian Muncul di Search Engine ?

 Robot search engine seperti google bot dan sanak saudaranya adalah penjelajah sejati dunia maya, selagi semuanya masih dalam lingkup bahasa engine, tak ada alasan untuk tidak di jelajah, kecuali ada perintah tertentu untuk melarang mereka menjelajah pada sebuah halaman. Jika saraf DNA manusia bisa di tanam bahasa engine, bisa saja para bot menjelejah ke bagian DNA atau pada sistem saraf manusia. Tapi bukan ini yang dimaksud.

Meskipun tanpa melakukan optimasi dan sebagainya , webblog dan segala isinya tetap akan di crawl dan di index, tapi akan butuh waktu lama, ini bisa di ibaratkan ,misalnya ; kita menulis di platform blogger , anggap  platform blogger adalah sebuah provinsi di negara besar google. webblog dan postingan tanpa optimasi itu seperti membangun rumah di daerah rimba. Bisa di temukan ?; bisa ,tapi butuh waktu lama dan rumit.

Apakah Umur Domain Menjadi Tolak Ukur ?
Logikanya, lebih baik mana, domain dengan umur 7 tahun terdapat 1000 backlink atau domain 2 tahun 10.000 backlink ?, cukup di jawab berdasarkan perspektif masing-masing.Pertanyaan ini juga akan mengakhiri pembahasan pada postingan kali ini, semoga bermanfaat.
Tampilkan Komentar
Sembunyikan Komentar

0 Response to "Cara Ampuh Artikel Terindex Google Kurang Dari 1 Menit | Tips Rahasia Para Webmaster"

Post a comment

ads

Iklan Tengah Artikel 1

Iklan Tengah Artikel 2

Iklan Bawah Artikel