Website yang semula normal tiba-tiba menjadi tidak disertakan lagi. Bagi para SEOer, itu berarti datangnya momen penderitaan. Tragisnya, website penulis mengalami situasi ini beberapa waktu lalu. Untungnya, setelah melalui pemeriksaan dan pemrosesan, website kembali normal. Di sini, berdasarkan contoh nyata penulis, saya akan membahas alasan dan solusi website tiba-tiba tidak disertakan.
Situasi umum: Sekitar tanggal 15 Desember, situs kecil penulis mulai tidak menyertakan halaman informasi yang diperbarui setiap hari dan disertakan secara normal. Kemudian penyertaan halaman lain di situs web mulai berkurang. Pada tanggal 23 September, situs web tersebut mulai berhenti termasuk, dan snapshot dimulai. Stagnasi, peringkat SEO kata kunci situs web Nanjing turun.
Karena ada banyak alasan mengapa situs web tidak disertakan, maka diperlukan banyak waktu untuk memeriksa situs web tersebut. Tentu saja, pengecekan tidak dilakukan secara membabi buta tidak lebih dari tiga poin: 1. Laba-laba tidak termasuk. 2. Laba-laba datang, tidak dapat menemukan halamannya, dan pergi. 3. Laba-laba datang dan memasuki beberapa halaman website, namun tetap tidak membawa apa-apa. Dari 3 alasan tersebut, saya melakukan pengecekan sebagai berikut:
1. Periksa log iis. Dengan memeriksa log IIS, kami dapat memahami dengan jelas keberadaan laba-laba tersebut, apakah ia pernah datang ke situs web kami, kapan ia datang, dan seberapa sering ia datang. Jika laba-laba tidak datang, tentu saja situs web tidak akan disertakan.
2. Periksa salurannya. Jika laba-laba datang ke situs web Anda secara normal, maka hal pertama yang perlu Anda lihat adalah file robots.txt Anda untuk melihat apakah Anda secara tidak sengaja memblokir halaman yang perlu disertakan secara normal saat memodifikasi robots.txt, atau karena halaman tersebut juga Anda blokir melarang satu-satunya pintu masuk atau pintu masuk utama halaman yang perlu disertakan? Hal lain yang perlu diperhatikan tentang file robots adalah jangan terlalu sering memodifikasinya, karena setiap kali Anda memodifikasinya, spider akan mempertimbangkan kembali halaman mana yang diperlukan dan halaman mana yang tidak boleh dirayapi.Modifikasi yang sering juga sangat mengganggu spider , Anda juga perlu memeriksa apakah berbagai pintu masuk ke halaman website Anda normal.
3. Periksa halaman. Jika laba-laba datang, dan robot Anda tidak banyak berubah seperti sebelumnya, dan tidak ada perubahan besar pada struktur dan entri halaman, maka masalahnya pasti ada di halaman. Pada halaman artikel, Anda perlu mempertimbangkan kualitas artikel Anda. Apakah artikel Anda dikumpulkan terlalu banyak? Apakah artikel tersebut cukup orisinal? Tidak ada kebiasaan mengecek), dan terlalu banyak artikel yang dikumpulkan oleh orang lain. Jika bobot Anda tidak setinggi situs web yang mengumpulkan artikel Anda, Anda mungkin membiarkan Baidu berpikir bahwa situs Anda adalah situs pengumpulan, terutama jika artikel Anda adalah situs pengumpulan. sering dikumpulkan oleh situs berbeda. Saat mengumpulkan; untuk halaman lain, Anda harus memeriksa apakah saat Anda menambahkan halaman baru, kontennya terlalu mirip, apakah judulnya diulang, dll. Laba-laba ini tidak menyukainya.
Cek 3 alasan website Anda ini, saya yakin Anda akan menemukan jawaban mengapa website Anda tiba-tiba tidak disertakan. Faktanya, setelah website penulis diperiksa, masalah juga terjadi karena beberapa alasan. Halaman informasi penulis dikumpulkan oleh banyak orang, dan itu relatif sering dan beberapa waktu lalu, karena revisi website, ada beberapa halaman yang menurut penulis tidak diperlukan. Itu dilarang, dan masalah entri halaman lain tidak dipertimbangkan, yang mengakibatkan kurangnya penyertaan.
Inilah solusinya:
1. Jika Anda memeriksa log IIS dan menemukan bahwa laba-laba belum datang, maka situs web Anda mungkin sedang diturunkan. Anda perlu memeriksa tautan teman Anda untuk melihat apakah server tersebut mengembalikan terlalu banyak status 404 atau 503 . Ya Bukan karena banyak halaman yang tidak dapat diakses juga, jangan memoles lalu lintas, yang juga merupakan alasan utama penurunan versi.
2. Jika masalahnya ada di robots.txt, mudah untuk diselesaikan. Anda hanya perlu memodifikasinya dengan benar. Ingatlah untuk mempertimbangkan hubungan antar halaman.
3. Jika masalahnya terletak pada halaman, maka yang harus Anda lakukan adalah meningkatkan orisinalitas artikel. Pengumpulan yang berlebihan akan dianggap sebagai tempat pembuangan sampah oleh Baidu, dan pengumpulan yang berlebihan oleh orang lain juga akan dianggap sebagai tempat pembuangan sampah oleh Baidu. Lakukan pekerjaan dengan baik dalam memeriksa, dan berikan perhatian khusus untuk berhati-hati agar tidak dikumpulkan oleh mesin. Saat ini, ada banyak alat pengumpulan yang mirip dengan lokomotif yang dapat membantu banyak webmaster mengurangi banyak beban kerja, tetapi jika situs Anda dikumpulkan oleh mesin tersebut. , , itu akan sangat menyedihkan. Anda dapat memberi beberapa batasan pada halaman, seperti menukar p, div, kode span, dll.
Melalui cara di atas, website penulis telah kembali normal. Pada saat artikel ini ditulis, semua artikel yang baru saya perbarui telah disertakan.
Ini akan membuat orang pusing jika situs web tiba-tiba tidak disertakan, tetapi penting untuk memperjelas pemikiran Anda. Ini adalah hal terpenting untuk SEO. Jangan menemui jalan buntu Setelah Anda keluar, Anda akan menemukan bahwa situs web Anda akan lebih baik dari sebelumnya, dan Baidu akan memiliki kesan yang lebih baik terhadap situs web Anda. Artikel ini berasal dari http://www.seo1912.com , harap sebutkan saat mencetak ulang.
Editor yang bertanggung jawab: Ruang pribadi Chen Long Penulis SEO1912