O site originalmente normal de repente deixou de ser incluído. Para os SEOers, isso significa a chegada do momento de sofrimento. Infelizmente, o site do autor encontrou essa situação há algum tempo. Felizmente, após passar por inspeção e processamento, o site voltou ao normal. Aqui, com base em exemplos reais do autor, falarei sobre os motivos e soluções para o site não ser incluído repentinamente.
Situação geral: Por volta do dia 15 de dezembro, o pequeno site do autor passou a não incluir as páginas de informações que eram atualizadas diariamente e incluídas normalmente. A partir do dia 23 de setembro, a inclusão de outras páginas no site começou a diminuir. e os instantâneos começaram a estagnação, a classificação SEO da palavra-chave do site Nanjing caiu.
Como há muitos motivos pelos quais os sites não são incluídos, leva muito tempo para verificar o site. É claro que a verificação não é cega. Você precisa ter uma orientação clara em mente. nada mais são do que três pontos: 1. As aranhas não estão incluídas. 2. A aranha veio, não conseguiu encontrar a página e foi embora. 3. O spider veio e entrou em algumas páginas do site, mas ainda assim não trouxe nada. Por esses 3 motivos, fiz as seguintes verificações:
1. Verifique o log do iis. Ao verificar o log do IIS, podemos entender claramente o paradeiro do spider, se ele chegou ao nosso site, quando chegou e com que frequência. Se o spider não vier, o site naturalmente não será incluído.
2. Verifique o canal. Se os spiders chegam ao seu site normalmente, então a primeira coisa que você precisa olhar é o seu arquivo robots.txt para ver se você baniu acidentalmente páginas que precisam ser incluídas normalmente ao modificar robots, ou é porque a página que você baniu também. baniu a única entrada ou a entrada principal da página que precisa ser incluída? Outra coisa a se observar sobre o arquivo robots é não modificá-lo com frequência, pois cada vez que você o modifica, o spider irá reconsiderar quais páginas são necessárias e quais não devem ser rastreadas. , você também precisa verificar se as várias entradas nas páginas do seu site estão normais.
3. Verifique a página. Se os spiders vierem e seus robôs não tiverem mudado tanto quanto antes e não houver grandes mudanças na estrutura e na entrada da página, então o problema deve estar na página. Na página do artigo, você precisa considerar a qualidade do seu artigo. Ele foi coletado demais? O artigo é original o suficiente, etc. Você também precisa verificar se o seu artigo foi coletado demais por outras pessoas? Não há hábito de verificar) e muitos artigos são coletados por terceiros. Se o seu peso não for tão alto quanto o do site que coleta seus artigos, você pode deixar o Baidu pensar que seu site é um site de coleção, especialmente quando seus artigos são. frequentemente coletados por sites diferentes Ao coletar como em outras páginas, você deve verificar se ao adicionar uma nova página o conteúdo é muito semelhante, se o título é repetido, etc.
Verifique estes 3 motivos para o seu site, acredito que você encontrará a resposta para o motivo pelo qual seu site não foi incluído repentinamente. Na verdade, após a inspeção do site do autor, o problema também ocorreu por diversos motivos. As páginas de informações do autor foram coletadas por várias pessoas, e isso era relativamente frequente e há algum tempo, devido à revisão do site, havia várias páginas que; o autor considerou desnecessário. Foi banido e o problema de outras entradas de páginas não foi levado em consideração, o que resultou na posterior falta de inclusão.
Aqui está a solução:
1. Se você verificar o log do IIS e descobrir que o spider não apareceu, provavelmente seu site está sendo rebaixado. Você precisa verificar o status do seu servidor para ver se ele retorna muitos status 404 ou 503. . Sim Não é que existam muitas páginas inacessíveis também, não atualize o tráfego, que também é o principal motivo do downgrade.
2. Se o problema estiver no robots.txt, é fácil de resolver. Você só precisa modificá-lo corretamente. Lembre-se de considerar o relacionamento entre as páginas.
3. Se o problema for da página, o que você precisa fazer é aumentar a originalidade do artigo. A coleta excessiva será considerada um depósito de lixo pelo Baidu, e a coleta excessiva por terceiros também será considerada um depósito de lixo pelo Baidu. Faça um bom trabalho na verificação e preste atenção especial ao cuidado ao ser coletado por máquinas. Hoje em dia existem muitas ferramentas de coleta semelhantes às locomotivas que podem ajudar muitos webmasters a reduzir muita carga de trabalho, mas se o seu site for coletado por tais máquinas. , , será muito deprimente. Você pode colocar algumas restrições na página, como troca de códigos p, div, span, etc.
Através do método acima, o site do autor voltou ao normal. No momento em que escrevo este artigo, todos os artigos que acabei de atualizar foram incluídos.
As pessoas terão dor de cabeça se o site não for incluído repentinamente, mas é importante esclarecer seu pensamento. Isso é o mais importante para o SEO. Você deve sair dele por meio de métodos razoáveis. Depois de sair, você descobrirá que seu site estará melhor do que antes e o Baidu terá uma impressão melhor do seu site. Este artigo vem de http://www.seo1912.com , indique ao reimprimir.
Editor responsável: Espaço pessoal do autor Chen Long SEO1912