Mesin
pencari optimasi (SEO) adalah proses mempengaruhi visibilitas situs web atau
halaman web dalam hasil pencarian ("organik") "alami" atau
tidak dibayar pencari. Secara umum, sebelumnya (atau lebih tinggi peringkat
pada halaman hasil pencarian), dan lebih sering situs muncul dalam hasil
pencarian, semakin banyak pengunjung itu akan menerima dari pencari pengguna.
SEO dapat menargetkan jenis penelusuran, termasuk Penelusuran Gambar, pencarian
lokal, Cari video, akademik Cari, Cari Berita dan spesifik industri vertikal
search engine.
Sebagai
strategi pemasaran Internet, SEO mempertimbangkan bagaimana mesin pencari
bekerja, apa orang mencari, istilah pencarian aktual atau kata kunci yang
diketik ke mesin pencari dan pencari yang disukai oleh khalayak sasaran mereka.
Mengoptimasi sebuah situs web mungkin melibatkan mengedit isinya, HTML dan
terkait coding untuk kedua meningkatkan relevansinya untuk kata kunci tertentu
dan untuk menghilangkan hambatan untuk kegiatan pengindeksan mesin pencari.
Mempromosikan sebuah situs untuk meningkatkan jumlah link balik, atau inbound
link, adalah taktik SEO lain.
Webmaster dan penyedia konten mulai mengoptimalkan situs
untuk mesin pencari pada pertengahan 1990-an, sebagai pencari pertama adalah
katalogisasi Web awal. Pada awalnya, Semua webmaster yang perlu lakukan adalah
untuk mengirimkan alamat laman, atau URL, berbagai mesin yang akan mengirim
"spider" untuk "merangkak" halaman, ekstrak link ke halaman
lain dari itu, dan mengembalikan informasi yang ditemukan pada halaman
diindeks. Proses ini melibatkan pencarian mesin pencari laba-laba men-download
halaman dan menyimpannya pada Cari server sendiri mesin, mana program yang
kedua, yang dikenal sebagai pengindeks, ekstrak berbagai informasi tentang
halaman, seperti kata-kata berisi dan dimana ini berada, serta berat badan
untuk kata-kata tertentu, dan semua link halaman tersebut berisi, yang kemudian
ditempatkan ke dalam scheduler untuk merangkak di kemudian hari.
Pemilik situs mulai untuk mengenali nilai memiliki situs
mereka sangat peringkat dan terlihat dalam hasil mesin pencari, menciptakan
kesempatan untuk topi putih dan topi hitam SEO praktisi. Menurut analis
industri Danny Sullivan, frase "search engine optimization" mungkin
datang ke dalam penggunaan pada tahun 1997. Didokumentasikan pertama penggunaan
istilah Search Engine Optimization adalah John Audette dan perusahaan kelompok
pemasaran Multimedia yang didokumentasikan oleh halaman web dari situs MMG dari
Agustus 1997.
Versi awal algoritma pencarian mengandalkan informasi
disediakan webmaster seperti kata kunci meta tag, atau indeks file dalam mesin
seperti ALIWEB. Meta Tag memberikan panduan untuk setiap halaman konten.
Menggunakan meta data untuk halaman indeks ditemukan untuk menjadi kurang dapat
diandalkan, namun, karena webmaster pilihan kata kunci dalam meta tag bisa
berpotensi menjadi representasi akurat konten situs sebenarnya. Data yang tidak
akurat, lengkap dan tidak konsisten dalam meta tag bisa dan itu menyebabkan
halaman untuk menentukan peringkat untuk pencarian tidak relevan. Penyedia
konten web juga dimanipulasi sejumlah atribut dalam sumber HTML dari halaman
dalam upaya untuk peringkat yang baik di search engine.
Dengan mengandalkan begitu banyak faktor-faktor seperti
kepadatan kata kunci yang secara eksklusif dalam kendali seorang webmaster,
mesin pencari awal menderita dari penyalahgunaan dan peringkat manipulasi.
Untuk memberikan hasil yang lebih baik kepada pengguna mereka, mesin pencari
harus beradaptasi untuk memastikan halaman hasil menunjukkan hasil pencarian
yang paling relevan, daripada halaman tidak terkait diisi dengan banyak kata
kunci oleh webmaster tidak bermoral. Karena keberhasilan dan popularitas dari
mesin pencari adalah ditentukan oleh kemampuan untuk menghasilkan hasil yang paling
relevan untuk setiap pencarian tertentu, miskin kualitas atau hasil pencarian
yang relevan dapat menyebabkan pengguna untuk menemukan sumber Cari. Search
Engine menjawab dengan mengembangkan lebih kompleks algoritma peringkat,
mempertimbangkan faktor-faktor tambahan rekening yang lebih sulit untuk
webmaster untuk memanipulasi. Lulus mahasiswa di Universitas Stanford, Larry
Page dan Sergey Brin, mengembangkan "Backrub," pencari yang
bergantung pada algoritma matematika untuk menilai pentingnya halaman web.
Jumlah dihitung berdasarkan algoritma, PageRank, adalah fungsi dari kuantitas
dan kekuatan inbound link. PageRank memperkirakan kemungkinan bahwa halaman
tertentu akan dicapai oleh pengguna web yang secara acak Surf web, dan
mengikuti link dari satu halaman ke yang lain. Pada dasarnya, ini berarti bahwa
beberapa link lebih kuat daripada yang lain, seperti halaman PageRank yang
lebih tinggi lebih mungkin untuk dicapai oleh surfer acak.
Halaman dan Brin mendirikan Google pada tahun 1998.
Google menarik pengikut setia antara meningkatnya jumlah pengguna Internet,
yang menyukai desain sederhana. Halaman off-faktor (seperti PageRank dan
hyperlink analisis) dianggap serta pada halaman-faktor (seperti frekuensi kata
kunci, meta tag, judul, link dan struktur situs) untuk memungkinkan Google
untuk menghindari jenis manipulasi terlihat di mesin pencari yang hanya
dianggap pada halaman-faktor untuk peringkat mereka. Meskipun PageRank adalah
lebih sulit untuk permainan, webmaster telah sudah berkembang link bangunan
alat dan skema untuk mempengaruhi Inktomi mesin pencari, dan metode ini
terbukti juga sama berlaku untuk game PageRank. Banyak situs yang berfokus pada
pertukaran, membeli dan menjual link, sering pada skala besar. Beberapa skema,
atau link peternakan, melibatkan penciptaan ribuan situs untuk tujuan tunggal
link spamming.
Pada 2004, search engine telah memasukkan berbagai
faktor-faktor yang tidak diungkapkan dalam peringkat mereka algoritma untuk
mengurangi dampak dari link manipulasi. Pada bulan Juni 2007, The New York
Times' Saul Hansell menyatakan situs peringkat Google yang menggunakan lebih
dari 200 sinyal yang berbeda. Terkemuka search engine, Google, Bing dan Yahoo,
tidak mengungkapkan algoritma yang mereka gunakan untuk peringkat halaman.
Beberapa SEO praktisi telah mempelajari pendekatan yang berbeda untuk optimasi
mesin pencari, dan telah berbagi pendapat mereka pribadi paten yang berkaitan
dengan pencarian engine dapat memberikan informasi untuk lebih memahami search
engine.
Pada tahun 2005, Google mulai personalisasi hasil
pencarian untuk setiap pengguna. Tergantung pada sejarah mereka dari
penelusuran sebelumnya, Google dibuat hasil untuk pengguna login. Pada tahun
2008, Bruce Clay mengatakan bahwa "peringkat mati" karena penelusuran
yang dipersonalisasi. Dia berpendapat bahwa itu akan menjadi tidak berarti
untuk mendiskusikan bagaimana situs peringkat, karena peringkat berpotensi akan
berbeda untuk setiap pengguna dan setiap pencarian.
Pada tahun 2007, Google mengumumkan kampanye melawan link
berbayar yang mentransfer PageRank. Pada tanggal 15 Juni 2009, Google
diungkapkan bahwa mereka telah mengambil tindakan untuk mengurangi dampak
PageRank mematung dengan menggunakan atribut nofollow pada link. Matt Cutts,
terkenal software engineer di Google, mengumumkan bahwa Google Bot tidak lagi
akan memperlakukan tautan nofollow dengan cara yang sama, untuk mencegah
penyedia layanan SEO menggunakan nofollow untuk PageRank mematung. Sebagai
hasil dari perubahan ini penggunaan nofollow mengarah penguapan PageRank. Untuk
menghindari di atas, SEO insinyur mengembangkan teknik alternatif yang
menggantikan nofollowed tag dengan mengaburkan Javascript dan dengan demikian
izin PageRank mematung. Selain itu beberapa solusi telah diusulkan itu termasuk
penggunaan iframes, Flash dan Javascript.
Bulan Desember 2009, Google mengumumkan itu akan menggunakan riwayat web
search penggunanya untuk mengisi hasil pencarian.
Google Sekejap, real-waktu-Cari, diperkenalkan pada akhir tahun 2010 dalam
upaya untuk membuat hasil pencarian lebih tepat waktu dan relevan. Secara
historis administrator situs telah menghabiskan waktu berbulan-bulan atau
bahkan bertahun-tahun yang mengoptimalkan situs untuk meningkatkan peringkat
pencarian. Dengan pertumbuhan popularitas media sosial situs dan blog terkemuka
mesin membuat perubahan mereka algoritma untuk memungkinkan konten segar untuk
peringkat cepat dalam hasil pencarian.
Pada Februari 2011, Google mengumumkan update Panda, yang penalizes situs
yang berisi konten diduplikasi dari website dan sumber-sumber lain. Secara
historis website telah menyalin konten dari satu sama lain dan memperoleh
manfaat dalam peringkat mesin pencari dengan terlibat dalam praktik ini, namun
Google mengimplementasikan sistem baru yang menghukum situs konten yang tak
bersifat unik.
Pada bulan April 2012, Google meluncurkan Google depersonalisasi yang
tujuannya yang adalah untuk menghukum website yang menggunakan manipulatif
teknik untuk meningkatkan peringkat mereka pada mesin pencari.
Pada September tahun 2013, Google merilis update Google Hummingbird,
perubahan algoritma yang dirancang untuk meningkatkan pemrosesan bahasa alami
dan semantik pemahaman halaman web Google.
-sumber : wikipedia