Tips request reconsideration di Google Webmaster Tool (Website Deindex)

Apakah Anda mempunyai website atau blog yang deindex atau terkena penalti oleh mesin pencari Google?. Situs yang mengalami masalah dalam hasil penelusuran di Google search engine sering kali terjadi karena melanggar aturan main dari webmaster guidelines yang sudah ditentukan oleh Google. Salah satu contoh yang paling sering terjadi adalah situs auto generate content yang tidak memberikan value (nilai) kepada pengunjung situs itu sendiri dan berefek spam di hasil penelusuran Google. Akibatnya situs tersebut akan di-banned atau diberikan penalty sehingga hasil index halaman situs itu hilang dari hasil pencarian Google. Anda dapat memeriksa apakah situs Anda deindex atau terkena penalty melalui fitur Manual Actions di Google Wemaster Tool.

Jika sudah terjadi demikian, maka satu-satunya jalan bagi sang pemilik situs adalah mengirimkan surat permintaan pertimbangan ulang (request reconsideration) kepada tim Google untuk meninjau ulang situs yang bermasalah melalui Google Wemaster Tool. Tentunya sebelum mengirimkan request reconsideration, Anda diharuskan memperbaiki situs yang bermasalah tersebut.

Cara mengembalikan website deindex atau terkena penalti

Ada beberapa tips yang cukup ampuh untuk Anda lakukan sebelum dan saat menuliskan request reconsideration, berikut ini adalah cara yang dapat berguna bagi Anda:

  1. Menghapus semua script, file, dan konten yang menurut Anda bermasalah, misalnya script AGC yang tidak layak, konten hasil dari copy paste atau yang melanggar hak cipta (copyrigted), file yang berisi virus atau malware, atau software website yang kira-kira melanggar aturan main Google Webmaster.
  2. Mengganti theme atau template website dengan template yang mendukung untuk semua browser baik itu desktop atau mobile.
  3. Sebaiknya jangan mengisi konten terbaru sebelum mendapatkan lampu hijau dari tim Google.
  4. Pastikan situs Anda sudah terverifikasi di Google Webmaster Tool. Jika belum, Anda dapat melakukan submit domain website Anda terlebih dahulu kemudian memverifikasi kepemilikan situs.
  5. Pada saat mengisi form reconsideration tool, pastikan Anda menyadari dan mengakui dengan jujur tentang kesalahan apa saja yang telah Anda lakukan di situs Anda sehingga menyebabkan website deindex atau terkena penalti Google. Kemudian sampaikan juga kepada tim Google langkah-langkah apa saja yang telah Anda lakukan untuk memperbaiki masalah yang terjadi.
  6. Sebelum Anda dengan benar-benar mengirimkan request reconsideration, tinjau ulang situs Anda lagi, apakah telah sesuai dengan aturan standar web Google, lalu kirimkan surat permintaan Anda.
  7. Salah satu cara yang cukup ekstrim tetapi ampuh untuk mengembalikan situs yang terkena penalti atau deindex, jika platform situs Anda memakai CMS WordPress, lakukan mapping domain ke Blogger/Blogspot tanpa mengikutkan konten lama Anda, lalu request reconsideration di Webmaster Tool.

Anda kemungkinan akan menunggu sampai beberapa hari (sekitar 2 hari sampai 1 minggu) untuk mendapatkan respon atau balasan laporan dari request reconsideration Anda. Jangan sekali-kali melakukan apapun terhadap situs tersebut sampai Anda mendapatkan respon oleh tim Google. Anda perlu bersabar menunggu respon oleh tim review Google, karena pastinya bukan cuma Anda yang mengalami masalah yang sama. Semoga request reconsideration Anda berjalan dengan sukses dan berhasil mengembalikan situs atau domain yang deindex atau terkena penalti Google.


 Share

Auto Generated Content : Aturan Terbaru Google Webmaster

Buat Anda yang menerapkan teknik auto generated content pada situs Anda, mungkin perlu membaca aturan terbaru Google Webmaster, soalnya aturan baru tersebut di-update tanggal 16 Oktober 2012. Aturan terbaru Google Webmaster mengenai auto generated content atau automatically generated content (AGC) dibahas pada topik Quality guidelines - specific guidelines.

Aturan untuk menghindari penggunaan Auto Generated Content di suatu situs sangat jelas dibahas dengan spesifik. Disitu dikatakan Automatically generated atau auto-generatedcontent adalah konten yang dihasilkan dari suatu pemrograman yang biasanya terdiri dari teks paragraf yang acak dan tidak masuk akal bagi para pembaca, yang kemungkinan berisi kata kunci pencarian.

Dalam aturan Google Webmaster juga diberikan beberapa contoh konten seperti apa yang dianggap sebagai auto generated content, misalnya:

  • Konten yang mengandung teks dari hasil terjemahan alat otomatis tanpa tinjauan dari manusia atau kurasi sebelum dipublikasikan.
  • Konten yang mengandung teks dari hasil proses otomatis, contohnya Markov chains.
  • Konten yang mengandung teks dari hasil teknik sinonim otomatis, yang membingungkan, ambigu, atau sulit untuk dimengerti.
  • Konten yang mengandung teks dari hasil Atom / RSS feed atau hasil pencarian.
  • Konten yang menggabungkan beberapa konten dari halaman web yang berbeda tanpa ada penambahan nilai yang cukup berarti.

Jika situs Anda tidak memenuhi kriteria aturan webmaster Google, maka silahkan submit situs Anda di Google Webmaster Tool untuk dilakukan pertimbangan ulang (Request Reconsideration).

Referensi
Automatically generated content - Google Webmaster Tools

Tutorial robots.txt berdasarkan Google Webmaster Tools

file robots.txt adalah file yang buat untuk menginstruksikan web robots, crawlers, atau spider yang masuk kedalam web atau blog kamu. File robots.txt mengontrol masuknya web robots yang biasanya datang dari situs search engine. Dengan adanya robots.txt, kamu bisa memberikan restriksi (semacam filter) terhadap file atau direktori tertentu dalam web, agar web robot tidak begitu saja mengcrawl semua isi dari web kamu, begitu juga sebaliknya.

Saya sendiri menggunakan robots.txt dengan tujuan melakukan restriksi web robot dari search engine terhadap konten yang ter-generate dalam blog ini, sehingga saya bisa menentukan konten-konten apa saja yang bisa di filter dan tidak, untuk dimasukkan dalam search engine. File robots.txt ini bisa juga digunakan sebagai cara menghindari duplicate content yang bisa saja ada dalam blog kamu, dalam hal ini duplicate title dan duplicate description seperti yang tercatat dalam Google Webmasters Tools.

Cobalah untuk mempelajari tentang robots.txt dalam tutorial ini, bagaimana file robots.txt ini digunakan untuk mengontrol search engine/web robots terhadap suatu situs.

Dalam tutorial robots.txt ini, saya menjelaskan pembuatan file robots.txt berdasarkan tool yang ada dalam Google Webmasters.

Berikut langkah-langkah cara membuat robots.txt menggunakan Google Webmasters Tools:

1. Signup/sign in Google Webmasters Tools. Masuk di akun Google Webmasters dengan username dan password akun Google kamu.

2. Masuk di situs yang mau dibuatkan file robots.txt. (Tentu saja situs kamu harus diverifikasi terlebih dahulu, baca di sini: cara verifikasi situs lewat Google Webmasters Tools)

3. Crawler access. Pada navigasi dashboard sebelah kiri masuk di Site configuration >> Crawler access (lihat gambar 1, klik gambar untuk memperbesar)


(gambar 1)

4. Tool robots.txt. Kamu akan melihat tool yang digunakan untuk mengetes robots.txt yang berisi 2 kotak form lengkap dengan tombol test untuk memeriksa robots.txt bikinan kamu. Saya tidak menggunakan tool generate robots.txt karena masih terbatas penggunaannya. (lihat gambar 2 dan 3)

Gambar 2. Form ini menunjukkan tempat dimana kamu harus mengisi protokol robots.txt


Gambar 3. Form ini menunjukkan tempat pengisian url file/direktori yang akan kamu test berdasarkan protokol robots.txt yang sudah kamu buat pada gambar 2.

5. User-agent: * artinya semua jenis robots yang diperintahkan menuruti protokol robots.txt, kamu bisa mengganti tan (*) dengan user agent yang lain. Contoh user-agent:

<code>
User-agent: ia_archiver
User-agent: Scooter
User-agent: ArchitextSpider
User-agent: fast
User-agent: Googlebot
User-agent: Googlebot-Images
User-agent: Mediapartners-Google
User-agent: Sidewinder
User-agent: Slurp
User-agent: Lycos_Spider_(T-Rex)
User-agent: Gulliver
User-agent: WebCrawler
</code>

6. Disallow: / dan Allow: / adalah protokol per-izinan apakah suatu file/direktori mau direstriksi atau tidak.

7. Cara pengisian form protokol robots.txt
Kamu cukup mengetikkan form protokol secara line by line. Berikut beberapa contoh kasus file atau direktori yang akan di isi dalam form protokol robots.txt:

A. Jika kamu tidak ingin semua user-agent/robots masuk ke dalam direktori blog kamu cukup mengisi form sbb:

<code>
User-agent: *
Disallow: /
</code>

B. Blok direktori dalam url.
Contoh: www.yourdomain.com/search/cara+membuat+blog

Direktori “/search/” akan direstriksi, beserta direktori/file setelahnya.

<code>
User-agent: *
Disallow: /search/
</code>

C. Blok file dalam url.
Contoh: www.yourdomain.com/foo/poster-artis.jpg

File poster-artis.jpg akan kita direstriksi.

<code>
User-agent: *
Disallow: /foo/poster-artis.jpg
</code>

D. Blok kata dalam url.
Contoh www.yourdomain.com/search/cara+membuat+blog

Kata “blog” dalam direktori “search” akan direstriksi.

<code>
User-agent: *
Disallow: /search/*blog
</code>

E. Blok semua url yang mengandung suatu spesial karakter.
Contoh www.yourdomain.com/search/cara+membuat+blog

Setiap url yang mengandung spesial karakter (+) akan direstriksi

<code>
User-agent: *
Disallow: /search/*+
</code>

F. Blok semua url yang diakhiri suatu spesial karakter.
Contoh www.yourdomain.com/search/cara+membuat+blog+

Setiap url yang berakhiran spesial karakter (+) akan direstriksi.

<code>
User-agent: *
Disallow: /search/*+$
</code>

G. Blok setiap awal suatu kata.
Contoh www.yourdomain.com/search/cara+membuat+blog

Setiap url yag ada kata “cara” dalam direktori “search” akan diblok.

<code>
User-agent: *
Disallow: /search/cara
</code>

H. Blok setiap file dengan suatu ekstension
Contoh www.yourdomain.com/search/cara+membuat+blog.html

Setiap url dalam direktori “search” yang mengandung ekstension “.html” akan di blok.

<code>
User-agent: *
Disallow: /search/*.html$
</code>

I. Mengizinkan kata tertentu yang direstriksi
Contoh
www.yourdomain.com/search/cara+membuat+blog
www.yourdomain.com/search/cara+membuat+blogs

Url dalam direktori “search” yang mengandung kata “blog” akan disallow tapi kata “blogs” tetap allow.

<code>
User-agent: *
Disallow: /search/*blog
Allow: /search/*blogs
</code>

J. Mengizinkan iklan Google Ads dalam web dapat dipantau oleh user-agent Google Ads.

<code>
User-Agent: MediaPartners-Google
Allow: /
</code>

K. Blok multiple url dan mengizinkan Google Ads user agent
Contoh
www.yourdomain.com/search/cara+membuat+blog
www.yourdomain.com/search/cari+duit+lewat+situs
www.yourdomain.com/search/tutorial+bikin+web
www.yourdomain.com/search/tutorial+bikin+weblog

Setiap url dalam direktori “search” yang mengandung kata “blog”,”duit”,dan “web” akan disallow, tapi kata “weblog” akan allow, dan Google Ads tetap bisa dipantau oleh user agent Google Ads.

<code>
User-agent: *
Disallow: /search/*blog
Disallow: /search/*blog
Disallow: /search/*blog
Allow: /search/*weblog
User-Agent: MediaPartners-Google
Allow: /
</code>

8. Tombol test. setelah kamu mengisi form protokol robots.txt dan menentukan url yang akan di test, silahkan klik tombol test untuk menilai apakah url tersebut disallow atau tidak.

9. Jika sudah yakin dengan semua protokol robots.txt yang kamu buat, kamu bisa kopas di notepad dan disimpan dengan nama robots.txt (semua lowercase) bukan Robots.txt.

10. Masukkan file tersebut ke direktori utama domain kamu dan cek dengan melihat alamat url http://yourdomain.com/robots.txt

Selamat mencoba sob! :)

Baca juga tutorial lainnya seperti pasang thumbnail di random posts dan recent posts serta oprek plugin stt 2.

Peringkat situs di Search Engine

Dimana peringkat situs kita di search engine ? Mungkin masih banyak dari kalangan blogger atau webmaster yang belum tahu mengenai peringkat situsnya secara pasti di search engine terutama Google Search Engine. Jika anda menggunakan beberapa keyword untuk situs anda, anda bisa menggunakan Google Webmaster tool untuk mengetahui sejauh mana peringkat situs kita sesuai dengan keyword yang kita gunakan.

Berikut langkah-langkahnya :

  1. Sign in dengan akun google anda ke Google Webmaster tool. Jika belum punya akun google sign up deh :)
  2. Setelah sign in akan tampil dashboard Webmaster tool. Input url situs anda dan klik tombol Add Site,contoh: ketik http://www.jevuska.com
  3. Kemudian muncul kotak dialog seperti ini:

    Next Step
    Verify your site. By verifying your site you can access comprehensive statistics and crawl errors about the pages in your site

    Anda diminta untuk memverifikasi terlebih dulu situs yang anda input. Klik link Verify your site

  4. Pilih metode verifikasi yang ingin anda gunakan. Kali ini saya lebih memilih “Add meta tag” karena lebih mudah digunakan karena hanya melakukan copy-paste kode yang diberikan.
  5. Pada html editor situs anda, lakukan paste kode tersebut di homepage anda. Lihat contohnya dengan mengklik Show me an example. Jangan lupa save perkerjaan anda.
  6. Kembali ke webmaster tool, klik tombol Verify. Akan ada pemberitahuan bahwa situs anda berhasil diverifikasi.
  7. Kemudian kita akan menginput sitemap situs. Di sebelah kiri tampilan webmaster tool terdapat link-link navigasi. Pilih Sitemap dan isi sitemap situs anda di kotak kosong warna putih. Jika anda pengguna WordPress, anda hanya menambahkan kata “feed” dan klik tombol “Submit Sitemap”, untuk pengguna Blogspot, tambahkan kata “atom.xml” dan klik tombol “Submit Sitemap”. Sitemap anda akan “pending” beberapa menit untuk memberikan waktu bagi Google mendownload sitemap anda.
  8. Kembali ke link-link navigasi sebelah kiri, pilih link Statistic kemudian pilih Top search queries. Akan tampil 2 tabel (Impression dan Traffic) 20 besar (top 20) keyword hasil pencarian dari search engine di situs anda. Selesai.

    Catatan: Hasil ini akan tampil beberapa jam bahkan hari setelah anda menginput situs anda di Google Webmaster tool

Dari tabel tersebut anda bisa melihat peringkat situs anda sesuai dengan keyword yang anda gunakan. Masih banyak sebenarnya kegunaan Google Webmaster tool ini. Anda bisa mempelajari sendiri nantinya.

Update:
Kini Google Webmaster sudah dengan tampilan terbaru tetapi fungsinya tetap sama.