Saat mengetik kueri atau kata kunci tertentu di Google, hasil penelusurannya menampilkan informasi dari berbagai situs. Kok bisa ya situs A berada di peringkat atas. Kenapa bukan situs B? Atau, kok blog pribadiku belum ranking di Google SERP ya? Pertanyaan tersebut sebenarnya bisa terjawab kalau paham tentang bagaimana cara kerja search engine seperti Google.
Setiap SEO specialist dan blogger wajib mengetahui cara kerja search engine. Kalau tidak, apanya yang mau dioptimasi? Cara kerja search engine saja tidak tahu.
Berikut cara kerja search engine, dikutip langsung dari situs resmi Google.
Disclaimer: Penjelasan cara kerja search engine di sini mengacu kepada Google. Bukan search engine lain seperti Bing, Baidu, DuckDuckGo, dll.
Crawling adalah fase di mana Google mengunduh teks, gambar, video dari laman yang mereka temukan di internet dengan program bernama crawlers (terkadang dibilang laba-laba). Fase ini adalah yang pertama dalam cara kerja search engine.
Pertama, Google melakukan pencarian tentang konten yang update dan me-listing-nya ke laman yang mereka ketahui. Hal ini dinamakan URL discovery.
Google juga bisa menemukan laman lain dari tautan dari laman yang diketahui yang mengarah ke laman baru. Contohnya adalah backlink yang kita tanam di situs lain (anchor text, blogwalking, backlink profile, dll.) atau tautan dari blog kita ke blog yang masih dalam satu domain (internal link).
Laman lain juga bisa ditemukan dengan cara menyetor sitemap ke Google Search Console untuk di-crawl.
Nah, setelah Google discover suatu laman, maka laman tersebut akan di-crawl untuk diketahui apa isi dari laman tersebut. Jangan lupa bahwa ada milyaran laman di internet.
Googlebot menggunakan proses algoritmik untuk menentukan situs apa yang di-crawl, seberapa sering, dan berapa banyak laman yang diambil dari tiap situs. Program ini tidak akan melakukan crawling terlalu cepat agar tidak terjadi overload.
Perlu diketahui, tidak semua laman akan di-crawl oleh Googlebot. Kita bisa memblokir jalan (disallow) Googlebot dengan robots.txt. Contohnya, laman login dari suatu situs pastinya tidak boleh ada di Google SERP demi keamanan.
Dalam proses crawling, Google juga melakukan proses rendering dan menjalankan Javascript yang mereka temukan dengan versi Chrome. Proses rendering sangat penting karena jika situs tidak bisa di-render, konten yang kita buat tidak akan bisa dibaca oleh Googlebot.
Beberapa masalah dalam Googlebot, umumnya adalah:
Dalam proses ini, Google menganalisa dan mencoba untuk mengerti tentang suatu konten (yang sudah di-crawl). Google menganalisanya lewat teks pada konten dan meta data seperti title tag, alt tag, dll.
Google akan menentukan apakah suatu konten duplikat atau canonical. Laman canonical akan ditampilkan di SERP.
Dalam memilih canonical, Google akan melakukan clustering laman dengan konten yang mirip dan menunjuk konten yang paling representatif/mewakili. Laman lainnya mungkin adalah versi lain untuk konteks yang berbeda, misalnya kueri yang lebih spesifik.
Google juga akan mengoleksi sinyal dari laman canonical dan kontennya. Sinyal ini termasuk bahasa pada laman, negara, usability dari suatu laman, dll.
Informasi yang dikoleksi akan disimpan di Google index, sebuah database besar yang dihost oleh ribuan komputer.
Setiap laman tidak dijamin untuk diindeks. Tidak semua laman akan diindeks oleh Google.
Namun, jika laman yang terindeks terlalu sedikit, berarti ada masalah pada technical SEO-nya. Kalau terlalu banyak? Berarti ada indikasi index bloating.
Beberapa masalah indexing yang bisa terjadi adalah:
Terakhir, Google akan memberikan hasil pencarian yang menurut mereka paling relevan dan berkualitas tinggi dari laman yang diindeks.
Relevansi sendiri banyak faktornya, misalnya:
Contohnya, saat mengetik rumah makan terdekat, maka jika kita mencari makan di Bandung, maka Google akan memberikan hasil rumah makan di sekitar Bandung, bukan di Jakarta. Hal ini dimanfaatkan dalam optimasi local SEO.
Beberapa kueri soal tutorial juga berkemungkinan untuk memberikan hasil pencarian berupa video. Dengan video, orang bisa meniru dengan lebih mudah.
Kalau laman diindeks, tetapi tidak ranking, banyak faktor yang menjadi alasannya. Seperti:
Jangan hanya sekedar tahu cara kerja search engine. Lakukan best practice dari SEO. Contohnya:
Dari cara kerja search engine, terlihat bahwa Google memberikan hasil teratas untuk konten yang paling berkualitas dan relevan dengan kueri pencarian. Karena itu, buatlah konten yang menjawab search intent dari user. Semakin relevan, maka akan semakin baik.
Google melakukan crawling dan discovery lewat tautan yang mengarah ke suatu situs, baik itu dari situs lain atau pun masih satu domain (internal link).
Jadi, backlink itu sebenarnya penting agar Google situs kita bisa di-crawl lebih cepat oleh Googlebot.
Meski demikian, dapatkan backlink berkualitas ya. Backlink yang toxic akan membuat situs kena penalti.
Beberapa cara untuk mendapatkan backlink berkualitas antara lain:
Jangan lupa untuk mengoptimasi SEO on page seperti meta data (meta description, title tag, alt text, H1, dst.) karena Google perlu hal tersebut dalam proses indexing.
Selain itu, karena Google juga melakukan discovery dan crawling dari tautan yang masih satu domain, jangan lupa untuk memasukkan internal link. Jangan sampai ada orphan page (laman tanpa internal link yang mengarah ke sana) pada situs.
Dalam crawling, terdapat proses bernama rendering. Proses ini penting karena kalau rendering gagal, maka Googlebot tidak bisa membaca konten kita.
Kalau di fase pertama (crawling) saja sudah gagal, bagaimana mau ranking? Diindeks saja tidak.
Karena itulah, jangan mengabaikan technical SEO seperti Javascript, rendering, core web vital, dll.
Untuk solusinya, kita bisa belajar tentang Javascript dan html. Tidak harus full coding, setidaknya kita mengerti permasalahannya, lalu delegasikan pekerjaan ke tim engineer (jika punya).
Setelah mengetahui cara kerja search engine, maka terapkan white hat SEO seperti:
Hindari black hat SEO seperti:
Kalau situs punya laman yang banyak, 10000-jutaan lebih, waktunya memikirkan crawl budget karena crawler butuh waktu untuk crawling dan mengindeks. Prioritaskan laman yang harus diindeks duluan.
Mengetahui cara kerja search engine adalah hal yang wajib bagi SEO specialistdan blogger yang ingin organic traffic-nya meningkat.
Hanya saja, percuma kalau sekedar tahu. Yang terpenting adalah apa yang kita lakukan selanjutnya setelah mengetahui cara kerja search engine.
Apakah kita akan memanfaatkan “lubang” dari cara kerja search engine (black hat SEO) atau fokus bermain dengan “bersih” (white hat SEO)? Pilihannya ada di pembaca.
Kalau untuk jangka panjang. Jawabannya sudah bisa kamu simpulkan sendiri 🙂
Sumber:
https://developers.google.com/search/docs/fundamentals/how-search-works#:~:text=Crawling%3A%20Google%20downloads%20text%2C%20images,which%20is%20a%20large%20database.
https://moz.com/beginners-guide-to-seo/how-search-engines-operate
Terdapat berbagai jenis backlink, tidak sekedar tautan yang mengarah ke situs kita saja dalam bentuk…
Terdapat klaim bahwa CTR menurun untuk halaman yang menarget informational intent. Salah satu cara untuk…
Perkembangan teknologi kecerdasan buatan atau Artificial Intelligence (AI) telah mengubah banyak hal dalam dunia digital,…
Kamu lagi cari perusahaan shipping dan logistik untuk berbagai urusan seperti ekspor? Mau kirim barang…
Apakah bisnismu sudah menerapkan digital marketing? Jika belum, maka kamu bisa tertinggal dari kompetitor. Sekarang…
Salah satu cara agar kita punya penghasilan pasif adalah lewat investasi atau trading saham. Capital…