Le site Web initialement normal n'est soudainement plus inclus. Pour les référenceurs, cela signifie l'arrivée du moment de souffrance. Tragiquement, le site Web de l'auteur a rencontré cette situation il y a quelque temps. Heureusement, après inspection et traitement, le site Web est revenu à la normale. Ici, sur la base des exemples réels de l'auteur, je parlerai des raisons et des solutions pour lesquelles le site Web n'est soudainement pas inclus.
Situation générale : Vers le 15 décembre, le petit site de l'auteur a commencé à ne plus inclure les pages d'informations qui étaient mises à jour quotidiennement et incluses normalement. Ensuite, l'inclusion d'autres pages sur le site a commencé à diminuer. Le 23 septembre, le site a commencé à cesser d'inclure, et les instantanés ont commencé à stagner, le classement SEO du mot-clé du site Web Nanjing a chuté.
Comme il existe de nombreuses raisons pour lesquelles les sites Web ne sont pas inclus, la vérification du site Web prend beaucoup de temps. Bien entendu, la vérification n'est pas aveugle. Vous devez avoir une idée claire des raisons générales pour lesquelles le site Web n'est pas inclus. il n'y a rien de plus que trois points : 1. Les araignées ne sont pas incluses. 2. L'araignée est venue, n'a pas trouvé la page et est partie. 3. L'araignée est venue et est entrée dans certaines pages du site Web, mais elle n'a toujours rien apporté. A partir de ces 3 raisons, j'ai fait les vérifications suivantes :
1. Vérifiez le journal iis. En vérifiant le journal IIS, nous pouvons clairement comprendre où se trouve l'araignée, si elle est venue sur notre site Web, quand elle est arrivée et à quelle fréquence elle vient. Si l'araignée ne vient pas, le site Web ne sera naturellement pas inclus.
2. Vérifiez la chaîne. Si les araignées arrivent normalement sur votre site Web, la première chose que vous devez examiner est votre fichier robots.txt pour voir si vous avez accidentellement banni des pages qui doivent être incluses normalement lors de la modification des robots, ou si c'est parce que la page que vous avez bannie également. interdit la seule entrée ou l'entrée principale de la page qui doit être incluse ? Une autre chose à noter à propos du fichier robots est de ne pas le modifier fréquemment, car chaque fois que vous le modifiez, l'araignée reconsidérera quelles pages sont nécessaires et quelles pages ne doivent pas être explorées. Les modifications fréquentes sont également très ennuyeuses pour les araignées ; , vous devez également vérifier si les différentes entrées vers les pages de votre site Web sont normales.
3. Vérifiez la page. Si des araignées arrivent et que vos robots n'ont pas beaucoup changé comme avant et qu'il n'y a pas de changements majeurs dans la structure et l'entrée de la page, alors le problème doit être sur la page. Sur la page de l'article, vous devez considérer la qualité de votre article. Est-il trop collecté ? L'article est-il suffisamment original, etc. Vous devez également vérifier si votre article a été trop collecté par d'autres (c'est quelque chose que beaucoup de gens ont à dire) Il n'y a pas d'habitude de vérifier), et trop d'articles sont collectés par d'autres. Si votre poids n'est pas aussi élevé que le site Web qui collecte vos articles, vous pouvez laisser Baidu penser que votre site est un site de collecte, surtout lorsque vos articles le sont. fréquemment collectés par différents sites. Lors de la collecte, comme pour les autres pages, vous devez vérifier si lorsque vous ajoutez une nouvelle page, le contenu est trop similaire, si le titre est répété, etc. Ces robots n'aiment pas ça.
Vérifiez ces 3 raisons pour votre site Web, je pense que vous trouverez la réponse à la raison pour laquelle votre site Web n'est soudainement pas inclus. En fait, après l'inspection du site Web de l'auteur, le problème s'est également produit pour plusieurs raisons. Les pages d'informations de l'auteur ont été collectées par plusieurs personnes, et c'était relativement fréquent et il y a quelque temps, en raison de la révision du site Web, plusieurs pages étaient présentes ; l'auteur a estimé qu'il était inutile. Il a été interdit et le problème des autres entrées de page n'a pas été pris en compte, ce qui a entraîné l'absence d'inclusion.
Voici la solution :
1. Si vous consultez le journal IIS et constatez que l'araignée n'est pas arrivée, votre site Web est probablement rétrogradé. Vous devez vérifier les liens amis ; vérifiez l'état de votre serveur pour voir s'il renvoie trop de statuts 404 ou 503. . Oui Ce n’est pas non plus qu’il y a beaucoup de pages inaccessibles ; ne révisez pas le trafic, qui est également la principale raison du déclassement.
2. Si le problème se trouve dans le fichier robots.txt, il est facile à résoudre. Il vous suffit de le modifier correctement. N'oubliez pas de considérer la relation entre les pages. Ne désactivez pas la page A et n'affectez pas sérieusement la page B.
3. Si le problème vient de la page, vous devez alors augmenter l’originalité de l’article. Une collecte excessive sera considérée comme une décharge par Baidu, et une collecte excessive par d'autres sera également considérée comme une décharge par Baidu. Faites un bon travail de vérification et veillez particulièrement à ce que votre site ne soit pas collecté par des machines. De nos jours, il existe de nombreux outils de collecte similaires aux locomotives qui peuvent aider de nombreux webmasters à réduire beaucoup de charge de travail, mais si votre site est collecté par de telles machines. , , ce sera très déprimant. Vous pouvez imposer certaines restrictions sur la page, comme l'échange de codes p, div, span, etc.
Grâce à la méthode ci-dessus, le site Web de l'auteur est revenu à la normale. Au moment de la rédaction de cet article, tous les articles que je viens de mettre à jour ont été inclus.
Cela donnera mal à la tête aux gens si le site Web n'est soudainement pas inclus, mais il est important de clarifier votre réflexion. C'est la chose la plus importante pour le référencement. Vous devez vous en sortir par des méthodes raisonnables. Une fois sorti, vous constaterez que votre site Web sera meilleur qu'avant et que Baidu aura une meilleure impression de votre site Web. Cet article provient de http://www.seo1912.com , veuillez l'indiquer lors de la réimpression.
Rédacteur en charge : Espace personnel de l'auteur Chen Long SEO1912