El sitio web originalmente normal de repente dejó de estar incluido. Para los expertos en SEO, significa la llegada del momento de sufrimiento. Trágicamente, el sitio web del autor encontró esta situación hace algún tiempo. Afortunadamente, después de pasar por Después de la inspección y el procesamiento, el sitio web volvió a la normalidad. Aquí, basándome en los ejemplos reales del autor, hablaré sobre los motivos y las soluciones por las que el sitio web de repente no se incluye.
Situación general: Alrededor del 15 de diciembre el pequeño sitio del autor comenzó a no incluir las páginas de información que se actualizaban diariamente y se incluían normalmente. Luego la inclusión de otras páginas en el sitio web comenzó a disminuir. Para el 23 de septiembre el sitio web comenzó a dejar de incluirse. y las instantáneas comenzaron al estancamiento, la clasificación SEO de las palabras clave del sitio web de Nanjing cayó.
Dado que hay muchas razones por las que los sitios web no están incluidos, se necesita mucho tiempo para verificar el sitio web. Por supuesto, la verificación no es ciega. Es necesario tener una dirección clara en mente sobre las razones generales por las que el sitio web no está incluido. no son más que tres puntos: 1. Las arañas no están incluidas. Ven; 2. La araña vino, no pudo encontrar la página y se fue. 3. La araña vino y entró en algunas páginas del sitio web, pero aún así no traía nada. Por estas 3 razones, hice las siguientes comprobaciones:
1. Verifique el registro de iis. Al verificar el registro de IIS, podemos comprender claramente el paradero de la araña, si llegó a nuestro sitio web, cuándo llegó y con qué frecuencia. Si la araña no aparece, el sitio web, naturalmente, no se incluirá.
2. Verifique el canal. Si las arañas llegan a su sitio web normalmente, lo primero que debe mirar es su archivo robots.txt para ver si accidentalmente prohibió páginas que deben incluirse normalmente al modificar robots, o es porque la página que prohibió también. ¿Prohibió la única entrada o la entrada principal de la página que debe incluirse? Otra cosa a tener en cuenta sobre el archivo robots es no modificarlo con frecuencia, porque cada vez que lo modifica, la araña reconsiderará qué páginas son necesarias y qué páginas no deben rastrearse. Además, las modificaciones frecuentes también son muy molestas para las arañas; , también debe comprobar si las distintas entradas a las páginas de su sitio web son normales.
3. Verifique la página. Si aparecen arañas y sus robots no han cambiado tanto como antes y no hay cambios importantes en la estructura y la entrada de la página, entonces el problema debe estar en la página. En la página del artículo, debe considerar la calidad de su artículo. ¿Está demasiado recopilado? ¿Es el artículo lo suficientemente original, etc.? También debe verificar si otros han recopilado demasiado su artículo (esto es algo que mucha gente tiene). No existe la costumbre de verificar) y otros recopilan demasiados artículos. Si su peso no es tan alto como el sitio web que recopila sus artículos, puede hacer que Baidu piense que su sitio es un sitio de recopilación, especialmente cuando sus artículos lo son. recopilados con frecuencia por diferentes sitios Al recopilar; en cuanto a otras páginas, debe verificar si cuando agrega una nueva página, el contenido es demasiado similar, si el título se repite, etc. A estas arañas no les gusta.
Consulte estas 3 razones para su sitio web, creo que encontrará la respuesta a por qué su sitio web de repente no está incluido. De hecho, después de que se inspeccionó el sitio web del autor, el problema también ocurrió por varias razones. Las páginas de información del autor fueron recopiladas por varias personas, y fue relativamente frecuente y hace algún tiempo, debido a la revisión del sitio web, hubo varias páginas que; el autor consideró que era innecesario y se prohibió, y no se tuvo en cuenta el problema de otras entradas de página, lo que provocó la posterior falta de inclusión.
Aquí está la solución:
1. Si revisa el registro de IIS y descubre que la araña no ha aparecido, entonces su sitio web probablemente esté siendo degradado. Debe verificar los enlaces de amigos para ver si devuelve demasiados estados 404 o 503; Sí. No es que haya muchas páginas que sean inaccesibles; no repases el tráfico, que también es el motivo principal de la degradación.
2. Si el problema está en robots.txt, es fácil de resolver, solo necesita modificarlo correctamente. Recuerde considerar la relación entre las páginas, no afecte seriamente la página B.
3. Si el problema es de la página, entonces lo que hay que hacer es aumentar la originalidad del artículo. Baidu considerará la recolección excesiva como un basurero, y Baidu considerará la recolección excesiva por parte de otros como un basurero. Haga un buen trabajo de verificación y preste especial atención a tener cuidado de no ser recopilado por máquinas. Hoy en día, existen muchas herramientas de recopilación similares a locomotoras que pueden ayudar a muchos webmasters a reducir una gran cantidad de trabajo, pero si su sitio es recopilado por dichas máquinas. , Será muy deprimente. Puede poner algunas restricciones en la página, como el intercambio de códigos p, div, span, etc.
A través del método anterior, el sitio web del autor volvió a la normalidad. Al momento de escribir este artículo, se incluyeron todos los artículos que acabo de actualizar.
A la gente le dará dolor de cabeza si el sitio web de repente no se incluye, pero es importante aclarar su pensamiento. Esto es lo más importante para el SEO. No entre en un callejón sin salida. Debe salir de él mediante métodos razonables. Una vez que salga, descubrirá que su sitio web será mejor que antes y Baidu tendrá una mejor impresión de su sitio web. Este artículo proviene dehttp ://www.seo1912.com , Indíquelo al reimprimir.
Editor a cargo: Chen Long Espacio personal del autor SEO1912