Sebagai pemasaran Internet strategi, SEO mempertimbangkan bagaimana mesin pencari bekerja dan apa yang dicari orang. Mengoptimalkan website terutama melibatkan mengedit isinya dan HTML dan asosiasi pengkodean untuk kedua meningkatkan relevansinya dengan kata kunci spesifik dan untuk menghilangkan hambatan bagi kegiatan mengindeks mesin pencari.

Optimisasi Mesin Pencari dari bahasa Inggris Search Engine Optimization (SEO) adalah proses meningkatkan volume atau kualitas lalu lintas ke situs web atau web page (sepertiblog ) dari mesin pencari via “natural” atau un-dibayar (“organik” atau “algorithmic” ) hasil pencarian dibandingkan dengan bentuk lain dari mesin pemasaran pencarian (“SEM”) yang mungkin berhubungan dengan inklusi dibayarkan. Teori ini adalah bahwa sebelumnya (atau lebih tinggi) situs muncul dalam daftar hasil pencarian, semakin banyak pengunjung itu akan menerima dari mesin pencari. SEO dapat menargetkan berbagai jenis pencarian, termasuk pencarian gambarpencarian lokalpencarian video dan industri-spesifikpencari vertikal mesin. Hal ini memberikan sebuah situs webkeberadaan web .

singkatan itu “SEO” dapat merujuk kepada “pengoptimalan search engine,” sebuah istilah yang diadopsi oleh sebuah industrikonsultan yang melaksanakan proyek optimalisasi atas nama klien, dan oleh karyawan yang melakukan layanan SEO in-house.Search engine mungkin menawarkan SEO sebagai layanan yang berdiri sendiri atau sebagai bagian dari kampanye pemasaran yang lebih luas. Karena SEO efektif mungkin memerlukan perubahan terhadap HTML kode sumber situs, taktik SEO mungkin dimasukkan ke dalam situs web pengembangan dan desain . Istilah “mesin pencari ramah” dapat digunakan untuk menggambarkan desain situs web, menusistem manajemen konten , gambar, video, berbelanja gerobak , dan elemen lain yang telah dioptimalkan untuk tujuan pemaparan mesin pencari.

Sejarah

Webmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari pada pertengahan 1990-an, sebagai mesin pencari pertama katalogisasi awal Web . Pada awalnya, semua webmaster hanya perlu menyerahkan alamat halaman, atau URL , untuk berbagai mesin yang akan mengirim ” spider “untuk” merangkak “bahwa halaman, ekstrak link ke halaman lain dari itu, dan kembali informasi yang ditemukan di halaman yang akan diindeks . Proses ini melibatkan mesin spider pencarian men-download halaman dan menyimpannya pada mesin sendiri server pencarian, di mana sebuah program kedua, yang dikenal sebagai indexer , ekstrak berbagai informasi tentang halaman, seperti kata-kata mengandung dan di mana ini berada, juga setiap berat kata-kata tertentu, dan semua link halaman tersebut berisi, yang kemudian ditempatkan ke scheduler untuk merangkak di kemudian hari.

Situs pemilik mulai mengakui nilai dari memiliki situs mereka yang berperingkat tinggi dan terlihat dalam hasil mesin pencari, menciptakan kesempatan untuk kedua topi putih dan topi hitam praktisi SEO. Menurut analis industri Danny Sullivan , istilah “search engine optimization” mungkin mulai dipakai pada tahun 1997.

Versi awal dari pencarian algoritma didasarkan pada webmaster-memberikan informasi seperti kata kunci meta tag , atau file indeks dalam mesin seperti ALIWEB . Meta tag menyediakan panduan untuk konten setiap halaman. Menggunakan data meta untuk mengindeks halaman ditemukan kurang dari diandalkan, Namun, karena pilihan webmaster kata kunci dalam meta tag berpotensi menjadi representasi akurat dari konten yang sebenarnya situs. Akurat, lengkap, dan data tidak konsisten dalam meta tag dan halaman dapat menyebabkan lakukan untuk peringkat untuk pencarian yang tidak relevan. [3] penyedia konten Web juga dimanipulasi sejumlah atribut dalam sumber HTML halaman dalam upaya untuk peringkat yang baik di mesin pencari. [4]

Dengan mengandalkan begitu banyak pada faktor-faktor seperti kepadatan kata kunci yang eksklusif dalam webmaster kontrol, mesin pencari awal menderita dari penyalahgunaan dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada pengguna mereka, mesin pencari harus beradaptasi untuk memastikan mereka hasil halaman menunjukkan hasil pencarian yang paling relevan, daripada halaman tidak terkait dengan kata kunci yang banyak diisi oleh webmaster yang tidak bermoral. Karena keberhasilan dan popularitas mesin pencarian ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk setiap pencarian tertentu, sehingga hasil tersebut tidak benar akan berbelok pengguna untuk menemukan sumber pencari lainnya. Search engine menanggapi dengan mengembangkan algoritma peringkat lebih kompleks, dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk webmaster untuk memanipulasi.

Mahasiswa pascasarjana di Universitas StanfordLarry Page dan Sergey Brin , mengembangkan “BackRub,” sebuah mesin pencari yang mengandalkan algoritma matematis untuk menilai keunggulan halaman web. Jumlah dihitung dengan algoritma PageRank , adalah sebuah fungsi dari kuantitas dan kekuatan inbound link . PageRank memperkirakan kemungkinan bahwa halaman yang diberikan akan dicapai oleh pengguna web yang secara acak surfs web, dan mengikuti link dari satu halaman ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa link yang kuat dari yang lain, sebagai halaman PageRank yang lebih tinggi lebih mungkin dicapai oleh surfer acak.

Page dan Brin mendirikan Google tahun 1998. Google menarik perhatian setia antara meningkatnya jumlah pengguna Internet, yang menyukai desain sederhana. Halaman faktor Off (seperti PageRank dan analisis hyperlink) dianggap serta faktor-faktor pada halaman (seperti frekuensi kata kunci, meta tag , judul, link dan struktur situs) untuk memungkinkan Google untuk menghindari jenis manipulasi terlihat pada mesin pencari yang hanya dianggap-halaman faktor di atas peringkat mereka. PageRank Meskipun lebih sulit untuk permainan, webmaster telah mengembangkan alat bangunan link dan skema untuk mempengaruhi Inktomi mesin pencari, dan metode ini terbukti sama berlaku untuk game PageRank. Banyak situs berfokus pada pertukaran, membeli, dan menjual link, sering pada skala besar. Beberapa skema ini, atau koleksi link , melibatkan penciptaan ribuan situs untuk tujuan tunggal spamming link .

Pada tahun 2004, mesin pencari telah dimasukkan berbagai faktor yang tidak diungkapkan dalam algoritma peringkat mereka untuk mengurangi dampak dari manipulasi link. Google mengatakan peringkat situs menggunakan lebih dari 200 sinyal yang berbeda. [8] Mesin pencari terkemuka, Google dan Yahoo , tidak mengungkapkan algoritma yang mereka gunakan untuk peringkat halaman.SEO terkemuka, seperti Rand Fishkin, Barry SchwartzAaron Wall dan Jill Whalen , telah mempelajari pendekatan yang berbeda ke mesin pencari optimasi, dan telah menerbitkan pendapat mereka di online forum dan blog . SEO praktisi juga dapat belajar paten dimiliki oleh berbagai mesin pencari untuk mendapatkan informasi tentang algoritma.

Pada tahun 2005 Google dimulai personalisasi hasil pencarian untuk setiap pengguna. Tergantung pada sejarah mereka dari pencarian sebelumnya, Google dibuat hasil untuk log pengguna. Pada tahun 2008, Bruce Clay mengatakan bahwa “peringkat mati” karena personalisasi pencarian. Hal ini akan menjadi tidak berarti untuk mendiskusikan bagaimana sebuah situs web peringkat, karena peringkat yang berpotensi akan berbeda untuk setiap pengguna dan setiap pencarian.

Pada tahun 2007 Google mengumumkan kampanye melawan link berbayar yang transfer PageRank. Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi dampak PageRank patung dengan menggunakan nofollow atribut pada link. Matt Cutts , sebuah sumur -dikenal perangkat lunak insinyur di Google, mengumumkan bahwa Google bot tidak lagi memperlakukan nofollowed link dengan cara yang sama, untuk mencegah SEO menggunakan nofollow untuk PageRank patung. Sebagai akibat dari perubahan ini menyebabkan penggunaan nofollow untuk penguapan dari PageRank. Untuk menghindari hal tersebut di atas, SEO mengembangkan teknik alternatif yang mengganti nofollowed tag dengan dikaburkanJavascript dan dengan demikian izin patung PageRank. Selain itu beberapa solusi telah diusulkan yang mencakup penggunaan iframeFlash dan Javascript.

Pada bulan Desember 2009 Google mengumumkan akan menggunakan riwayat pencarian Web dari semua pengguna dalam rangka mengisi hasil pencarian.

Real-time-cari diperkenalkan pada akhir tahun 2009 dalam upaya untuk membuat hasil pencarian yang lebih tepat waktu dan relevan. Secara historis administrator situs telah menghabiskan bulan atau bahkan bertahun-tahun mengoptimalkan sebuah website untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog mesin terkemuka membuat perubahan pada algoritma mereka untuk mengizinkan konten segar untuk menentukan peringkat cepat dalam hasil pencarian. Pendekatan baru ini ke tempat-tempat penting pencarian pada saat ini, dan unik konten segar.

Hubungan dengan mesin pencari

Pada tahun 1997 mesin pencari diakui bahwa webmaster sedang membuat usaha-usaha untuk peringkat yang baik dalam mesin pencarian mereka, dan bahwa beberapa webmaster bahkan memanipulasi peringkat mereka dalam hasil pencarian dengan isian halaman dengan kata kunci yang berlebihan atau tidak relevan. Awal mesin pencari, seperti Infoseek , disesuaikan algoritma mereka dalam upaya untuk mencegah webmaster dari memanipulasi peringkat.

Karena nilai pemasaran tinggi dari hasil pencarian yang ditargetkan, ada potensi untuk hubungan yang berlawanan antara mesin pencari dan SEO. Pada tahun 2005, sebuah konferensi tahunan, AIRWeb, Adversarial Information Retrieval di Web,  diciptakan untuk membahas dan meminimalkan efek merusak dari penyedia konten web agresif.

perusahaan yang mempekerjakan teknik SEO terlalu agresif bisa mendapatkan klien mereka dilarang website dari hasil pencarian. Pada tahun 2005, Wall Street Journal melaporkan pada sebuah perusahaan, Lalu Lintas Power , yang diduga digunakan-risiko teknik tinggi dan gagal untuk mengungkapkan risiko kepada pelanggan. Wired majalah melaporkan bahwa perusahaan yang sama digugat blogger dan SEO Aaron Wall untuk menulis tentang larangan tersebut. Google’s Matt Cutts kemudian menegaskan bahwa Google tidak sebenarnya larangan Lalu Lintas Power dan beberapa klien.

Beberapa search engine juga mengulurkan tangan untuk industri SEO, dan sering sponsor dan tamu di konferensi SEO, chatting, dan seminar. Bahkan, dengan munculnya inklusi dibayarkan, beberapa mesin pencari sekarang memiliki kepentingan dalam kesehatan masyarakat optimasi. mesin pencari Mayor menyediakan informasi dan panduan untuk membantu dengan optimalisasi situs.[24] Google memiliki Sitemaps program untuk membantu webmaster belajar jika Google mengalami masalah mengindeks situs web mereka dan juga menyediakan data tentang lalu lintas ke situs web Google. pedoman Google adalah daftar Google praktik yang disarankan telah disediakan sebagai panduan untuk webmaster. Yahoo! Site Explorer menyediakan cara untuk webmaster untuk mengirimkan URL, menentukan berapa banyak halaman Yahoo.! indeks tampilan link dan informasi

Pendapatkan diindeks

Mesin pencari terkemuka, seperti Google, Bing dan Yahoo!, Gunakan crawler untuk menemukan halaman untuk pencarian algoritmik hasil mereka. Halaman-halaman yang terhubung dari mesin pencari lain diindeks halaman tidak perlu disampaikan karena mereka ditemukan secara otomatis. Beberapa search engine, terutama Yahoo!, mengoperasikan layanan pengiriman dibayar yang menjamin merangkak baik untuk biaya mengatur atau biaya per klik . Program tersebut biasanya menjamin penyertaan dalam database, namun tidak menjamin peringkat tertentu dalam hasil pencarian. Dua direktori utama, Direktori Yahoo dan Open Directory Project keduanya membutuhkan penyerahan manual dan review editorial manusia.  Google menawarkan Google Webmaster Tools , yang XML Sitemap pakan dapat dibuat dan diserahkan secara gratis kepada memastikan bahwa semua halaman yang ditemukan, terutama halaman yang tidak dapat ditemukan dengan mengikuti link secara otomatis.

Search engine crawler dapat melihat sejumlah faktor yang berbeda ketika merangkak situs. Tidak setiap halaman diindeks oleh search engine. Jarak halaman dari direktori root dari situs juga mungkin menjadi faktor dalam halaman atau tidak bisa dijelajahi.

Mencegah merangkak

Untuk menghindari konten yang tidak diinginkan dalam indeks pencarian, webmaster dapat menginstruksikan spider tidak merangkak file atau direktori tertentu melalui standar robots.txt file dalam direktori root dari domain. Selain itu, halaman dapat secara eksplisit dikecualikan dari mesin pencari database dengan menggunakan tag meta khusus untuk robot. Ketika sebuah mesin pencari kunjungan situs, robots.txt yang terletak di direktori root adalah file pertama dijelajahi. File robots.txt ini kemudian dipecah, dan akan menginstruksikan robot untuk yang halaman tidak dapat dijelajahi.Sebagai crawler mesin pencari dapat menyimpan salinan cache dari file ini, pada halaman mungkin kesempatan merangkak webmaster tidak ingin dijelajahi. Halaman biasanya dicegah dari dijelajahi termasuk halaman login tertentu seperti shopping cart dan pengguna tertentu konten seperti hasil pencarian dari pencarian internal. Pada bulan Maret 2007, Google webmaster memperingatkan bahwa mereka harus mencegah pengindeksan hasil pencarian internal karena halaman tersebut dianggap spam pencarian.

Meningkatkan menonjol

Berbagai metode dapat meningkatkan keunggulan halaman Web dalam hasil pencarian. Cross menghubungkan antara halaman-halaman situs web yang sama untuk menyediakan lebih banyak link untuk halaman yang paling penting dapat meningkatkan visibilitas perusahaan. [35] Menulis konten yang mencakup frase kata kunci yang sering dicari, sehingga untuk menjadi relevan dengan berbagai permintaan pencarian akan cenderung untuk meningkatkan lalu lintas. Menambahkan kata kunci yang relevan dengan halaman meta’s data web, termasuk tag judul dan deskripsi meta akan cenderung untuk meningkatkan relevansi pencarian daftar situs, sehingga peningkatan lalu lintas. normalisasi URL dari halaman web diakses melalui beberapa url, dengan menggunakan “kanonik”meta tag atau melalui pengalihan 301 dapat membantu membuat link Pastikan untuk versi yang berbeda dari menghitung semua link url menuju’s popularitas skor halaman.

Topi topi hitam versus White

teknik SEO yang diklasifikasikan oleh beberapa menjadi dua kategori besar: teknik bahwa mesin pencari merekomendasikan sebagai bagian dari desain yang baik, dan orang-orang teknik bahwa mesin pencari tidak setuju dan berusaha untuk meminimalkan pengaruh, disebut sebagai spamdexing . Beberapa komentator industri mengklasifikasikan metode ini, dan praktisi yang mempekerjakan mereka, baik sebagai SEO topi putih, atau SEO topi hitam. Putih topi cenderung menghasilkan hasil yang lama terakhir kali, sementara topi hitam mengantisipasi bahwa situs mereka akhirnya akan sekali dilarang mesin pencari menemukan apa yang mereka lakukan.

Taktik SEO, teknik atau metode dianggap putih topi jika sesuai dengan pedoman mesin pencarian ‘dan tidak melibatkan penipuan. Sebagai pedoman mesin pencari tidak ditulis sebagai serangkaian aturan atau perintah, ini adalah perbedaan penting untuk dicatat. SEO topi putih bukan hanya tentang mengikuti pedoman, tapi adalah tentang memastikan bahwa konten indeks mesin pencari dan kemudian peringkat adalah konten yang sama, pengguna akan melihat.

saran topi Putih umumnya disimpulkan sebagai menciptakan konten untuk pengguna, bukan mesin pencari, dan kemudian membuat bahwa konten dengan mudah diakses oleh laba-laba, daripada mencoba untuk pertandingan algoritma. White hat SEO adalah dalam banyak hal mirip dengan pengembangan Web yang mempromosikan aksesibilitas,  meskipun keduanya tidak identik.

Black hat SEO berusaha meningkatkan peringkat dengan cara-cara yang ditolak dari oleh mesin pencari, atau melibatkan penipuan. Salah satu teknik topi hitam menggunakan teks yang tersembunyi, baik sebagai teks yang berwarna mirip dengan latar belakang, dalam tak terlihat div , atau posisi dari layar. Metode lain memberikan halaman yang berbeda tergantung pada apakah halaman yang diminta oleh pengunjung manusia atau sebuah mesin pencari, teknik yang dikenal sebagai cloaking .

Search engine dapat menghukum mereka menemukan situs yang menggunakan metode topi hitam, baik dengan mengurangi atau menghilangkan peringkat mereka dari daftar database mereka sama sekali. hukuman tersebut dapat diterapkan baik secara otomatis oleh algoritma mesin pencarian ‘, atau dengan review situs manual. Salah satu contoh yang terkenal adalah Februari 2006 Google penghapusan kedua BMW Jerman dan Ricoh Jerman untuk penggunaan praktek yang menyesatkan. [41] Kedua perusahaan, bagaimanapun, cepat minta maaf, tetap halaman menyinggung, dan itu dikembalikan ke daftar Google. [42]

Sebagai strategi pemasaran

SEO tidak harus merupakan strategi yang tepat untuk setiap website, dan Internet marketing strategi lainnya dapat jauh lebih efektif, tergantung pada situs operator tujuan. Internet marketing kampanye sukses dapat mengarahkan lalu lintas organik, dicapai melalui teknik optimasi dan tidak dibayar iklan , untuk halaman web, tetapi juga mungkin melibatkan penggunaan iklan dibayar di search engine dan halaman lain, membangun halaman web berkualitas tinggi untuk terlibat dan membujuk, isu-isu teknis yang dapat menyimpan mesin pencari dari merangkak dan mengindeks situs tersebut, menyiapkan analisis program untuk memungkinkan pemilik situs untuk mengukur keberhasilan mereka, dan memperbaiki situs tingkat konversi .

SEO dapat menghasilkan laba atas investasi . Namun, mesin pencari tidak dibayar untuk lalu lintas pencarian organik, algoritma mengubah mereka, dan tidak ada jaminan referensi lanjutan. (Beberapa situs perdagangan seperti eBay dapat menjadi kasus khusus untuk ini, akan mengumumkan bagaimana dan kapan algoritma peringkat akan mengubah beberapa bulan sebelum mengganti algoritma).Karena tidak adanya jaminan dan kepastian, sebuah bisnis yang sangat bergantung pada lalu lintas mesin pencari dapat menderita kerugian besar jika mesin pencari berhenti mengirim pengunjung. Hal ini dianggap sebagai praktik bisnis yang bijaksana untuk operator situs web untuk membebaskan diri dari ketergantungan pada mesin pencari lalu lintas. Peringkat atas SEO blog Seomoz.org telah menyarankan, “Cari pemasar, di twist ironi, menerima bagian yang sangat kecil lalu lintas dari mesin pencari ..” Sebaliknya, sumber utama lalu lintas adalah link dari situs-situs lain.

Pasar Internasional

Optimasi teknik sangat sesuai untuk mesin pencari dominan di pasar sasaran. pangsa pasar mesin cari ‘berbeda dari pasar ke pasar, seperti halnya kompetisi. Pada tahun 2003, Danny Sullivanmenyatakan bahwa Google mewakili sekitar 75% dari semua pencarian. Di pasar di luar Amerika Serikat, kita berbagi Google sering kali lebih besar, dan Google tetap di seluruh dunia mesin dominan pencarian sebagai tahun 2007. Pada tahun 2006 , Google memiliki pangsa pasar 85-90% di Jerman. Sementara ada ratusan perusahaan SEO di AS pada waktu itu, hanya ada sekitar lima di Jerman. Pada Juni 2008, pangsa pasar Google di Inggris itu hampir 90% menurut Hitwise . Itulah pangsa pasar dicapai di beberapa negara.

Pada 2009, hanya ada beberapa pasar besar di mana Google tidak mesin pencari terkemuka. Dalam kebanyakan kasus, jika Google tidak terkemuka di pasar tertentu, itu tertinggal pemain lokal. Yang penting sebagian besar pasar di mana hal ini terjadi adalah Cina, Jepang, Korea Selatan, Rusia dan Republik Ceko di mana masing-masing BaiduYahoo! JepangNaverYandex dan Seznam adalah pemimpin pasar.

Keberhasilan dalam optimasi pencarian untuk pasar internasional mungkin membutuhkan profesional terjemahan halaman web, pendaftaran nama domain dengan sebuah domain tingkat atas di pasar sasaran, dan web hosting lokal yang menyediakan alamat IP, jika tidak, unsur-unsur dasar pencari optimasi pada dasarnya sama, tanpa memandang bahasa.

Preseden Hukum

Pada tanggal 17 Oktober 2002, SearchKing mengajukan gugatan di Pengadilan Distrik Amerika Serikat, Distrik Barat Oklahoma, terhadap mesin pencari Google. SearchKing mengklaim bahwa itu taktik Google untuk mencegah spamdexing merupakan suatu gangguan tortious dengan hubungan kontraktual. Pada tanggal 27 Mei 2003, pengadilan yang diberikan Google untuk memberhentikan gerak keluhan karena SearchKing “gagal untuk menyatakan klaim atas bantuan yang dapat diberikan”.

Pada bulan Maret 2006, KinderStart mengajukan gugatan kepada Google atas peringkat mesin pencari. situs web Kinderstart itu dihapus dari indeks Google sebelum gugatan dan jumlah lalu lintas ke situs menurun 70%. Pada tanggal 16 Maret 2007, Pengadilan Distrik Amerika Serikat untuk Distrik Utara CaliforniaSan Jose Divisi) diberhentikan keluhan KinderStart tanpa meninggalkan untuk merubah, dan sebagian diberikan’s gerak Google untuk Peraturan 11 sanksi terhadap jaksa KinderStart, membutuhkan dia untuk membayar sebagian dari Google hukum biaya.

Sumber ; http://en.wikipedia.org/wiki