Selasa, 26 Juli 2011

Cara Kerja Search Engine

Cara kerja mesin pencari

Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web otomatis yang mengikuti setiap pranala yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.

Selain halaman web, Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya, serta informasi tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang semakin terus berkembang sesuai dengan perkembangan teknologi informasi.

Ketika seseorang mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan kadang-kadang sebagian teksnya.


Ada jenis mesin pencari lain: mesin pencari real-time, seperti Orase. Mesin seperti ini tidak menggunakan indeks. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal: informasi selalu mutakhir, (hampir) tak ada pranala mati, dan lebih sedikit sumber daya sistem yang diperlukan. (Google menggunakan hampir 100.000 komputer, Orase hanya satu.) Tetapi, ada juga kelemahannya: pencarian lebih lama rampungnya.

Manfaat mesin pencari bergantung pada relevansi hasil-hasil yang diberikannya. Meskipun mungkin ada jutaan halaman web yang mengandung suatu kata atau frase, sebagian halaman mungkin lebih relevan, populer, atau autoritatif daripada yang lain. Kebanyakan mesin pencari menggunakan berbagai metode untuk menentukan peringkat hasil pencarian agar mampu memberikan hasil "terbaik" lebih dahulu. Cara mesin menentukan halaman mana yang paling sesuai, dan urutan halaman-halaman itu diperlihatkan, sangat bervariasi. Metode-metode nya juga berubah seiring waktu dengan berubahnya penggunaan internet dan berevolusinya teknik-teknik baru.

Sebagian besar mesin pencari web adalah usaha komersial yang didukung pemasukan iklan dan karenanya sebagian menjalankan praktik kontroversial, yaitu membolehkan pengiklan membayar agar halaman mereka diberi peringkat lebih tinggi dalam hasil pencarian.


Kategori Alat Pencari

Saat ini, tiga bentuk dari alat bantu pencarian ini. Menggunakan strategi yang berbeda untuk memanfaatkan kemampuan potensial dari masing-masing nya, yaitu

Mesin pencari dan mesin pencari-meta

Karakteristik:

  1. Menyimpan data dalam bentuk teks penuh pada halaman yang terpilih,
  2. Pencarian berdasarkan kata kunci, mereka mencoba mencocokkan dengan tepat kata kunci tersebut dengan teks yang ada dalam dokumen,
  3. Tidak perlu dilakukan browsing, dan tidak ada subjek dari kategori,
  4. Database dijaring dan dikumpulkan oleh spidr, yaitu komputer yang memiliki program robot, dengan kemampuan seminimal mungkin dari pandangan atau sentuhan manusia,
  5. Ukuran search engine:dari skala kecil hingga mampu menyimpan sangat banyak (sekitar hingga 20 milyar halaman web).
  6. Meta-search engine dengan cepat melakukan pencarian ke dalam beberapa data base dari berbagai search engine dalam satu kali permintaan. hasilnya adalah daftar yang hasilnya dan penggabungan hasil pencarian dari beberapa mesin pencari yang mereka libatkan. Contoh : Search engine: Google, yahoo search, Ask.com. Meta-Search : Dogpile, Copernic, dan lainnya.

Subject Directories

  1. Karakteristik :
  2. Seleksi dari situs yang ada merupakan seleksi langsung yang dilakukan oleh manusia, kadang kala para ahli untuk subjek tertentu,
  3. Sering dengan hati-hati dievaluasi dan menjaga keterbaruan informasi yang mereka miliki, namun tidak selalu, kadang-kadang tidak, terutama untuk mereka yang telah memiliki data yang banyak dan bersifat general,
  4. Biasanya dikelola dalam bentuk subjek dan direktori yang tersusun secara hirarki.
  5. Sering dilengkapi dengan catatan mengenai deskripsinya ( tidak untuk Yahoo).
  6. Subjek dapat di-browse subjek dan kategorinya atau melakukan pencarian berdasarkan kata-kata tertentu,
  7. Dokumen yang tidak penuh teks. pencarian diminta lebih spesifik dibandingkan dengan pencarian melalui mesin pencari, karena kata kunci tidak bisa dibandingkan dengan isi dari halaman suatu situs, melainkan hanya pada subjek, kategori-kategori, dan deskripsi.
  8. Terdapat ribuan atau bahkan lebih subjek direktori dalam praktek dan kenyataannya apa saja yang dipikirkan di sana.


Specialized Databade (Invisible Web)

Karakteristik :

  1. Merupakan web yang menyediakan akses melalui suatu kotak pencarian ke dalam isi database pada sebuah komputer di suatu tempat,
  2. Dapat saja berubah berbagai topik, dapat pula juga hal yang komersial, pekerjaan yang spesifik, pemerintahan, dll
  3. Juga terdiri dari banyak halaman yang menghasilkan hasil pencarian dari katalog direktori online.



Prinsip Umum Dari mesin pencari

Sistem kinerja mesin ini ada beberapa hal yang perlu di perhatikan terutama keterkaitannya dengan masalah arsitekrut dan mekanismenya.

Spider

Merupakan program yang men-download halaman-halaman yang mereka temukan, mirip dengan browser. Perbedannya adalah bahwa browser menapilkan secara langsung informasi yang ada (baik tekas, gambar, dll). Untuk kepentingan manusia yang menggunakannya pada saat itu, sedangkan spider tidak melakukan untuk menampulkan dalam bentuk yang terlihat seperti itu, karena kepentingannya adalah untuk mesin, bukan untuk manusia, spider pun dijalankan oleh mesin secara otomatis. Kepentingannya adalah untuk mengambil halaman-halaman yang dikunjunginya untuk disimpan kedalam database yang dimiliki oleh search engine.

Crawler

Merupakan program yang dimiliki search engine untuk melacak dan menemukan link yang terdapat dari setiap halaman yang ditemuinya. Tugasnya adalah untuk menentukan spoder harus pergi kemana dan mengevaluasi link berdasarkan alamat yang ditentukan dari awal. Crawler mengikuti link dan mencoba menemukan dokumen yang belum dikenal oleh search engine.

Indexer

Komponen ini melakukan aktifitas untuk menguraikan masing-masing halaman dan meneliti berbagai unsur, seperti teks, headers, struktur atau fitur dari gaya penulisan, tag HTML khusus, dll.

Database

Merupakan tempat standar untuk menyimpan data-data dari halaman yang telah dikunjungi, di-download dan sudah dianalisis. kadang kala disebut juga dengan index dari suatu search engine.

Result Engine

Mesin yang melakukan penggolongan dan penentuan peringkat dari hasil pencarian pada search engine. Mesin ini menentukan halaman mana yang menemui kriteria terbaik dari hasil pencarian berdasarkan permintaan penggunanya, dan bagaimana bentuk penampulan yang akan ditampilkan.

Proses ini dilaksanakan berdasarkan algoritma perangkingan yang dimiliki oleh search engine tersebut, mengikuti kaidah perangkingan hakaman yang dipergunakan oleh mereka adalah hak mereka, para peneliti mempelajari sifat-sifat yang mereka gunakan, terutama untuk meningkatkan pencarian yang dihasilkan oleh serach engine tersebut.

Web Server

Merupakan komponen yang melayani permintaan dan memberikan respon balik dari permintaan tersebut. Web Server ini biasanya menghasilkan informasi atau dokumen dalam format [[[HTML]]. Pada halaman tersebut tersedia layanan untuk mengisikan kata kunci pencarian yang diinginkan oleh usernya. Web Server ini juga bertanggung jawab dalam menyampaikan hasil pencarian yang dikirimkan kepada komputer yang meminta informasi.

Tidak ada komentar:

Posting Komentar