Cuando llegué a trabajar a una nueva empresa la semana pasada, me hice cargo de más de 20 sitios web. Examiné brevemente las palabras clave de esos sitios web y descubrí que muchas de ellas no eran palabras clave muy populares. Al principio pensé que podía optimizar estos sitios web con una actitud relajada, pero luego verifiqué la calidad de estos sitios web y realmente no puedo felicitarlos. Entre estos veinte sitios web, casi todos han sido degradados por Baidu. Ninguna de las clasificaciones para todas las palabras clave se puede clasificar entre las veinte primeras páginas de Baidu. Creo que todos saben que las clasificaciones después de la vigésimo primera página de Baidu. equivalente a no tener ranking. Al autor se le ocurrieron las siguientes razones por las que el sitio web fue degradado:
1. Las direcciones IP de la mayoría de los veinte sitios web tienen el prefijo 124.173 y todos tienen enlaces a páginas de inicio entre sí. Creo que todo el mundo sabe que Baidu castigará los enlaces a sitios con la misma dirección IP, y muchos webmasters también lo son. Tenga en cuenta esto al publicar artículos en línea, debe evitar demasiados enlaces amigables al mismo sitio IP, de lo contrario, algún día sufrirá una pérdida. Aunque no todos los veinte sitios web del autor tienen direcciones IP, usemos direcciones IP con prefijos similares. El autor personalmente cree que todavía habrá un cierto impacto negativo y le sugiero que evite crear enlaces tan amigables.
2. La página de inicio se muestra con una animación Flash grande. La animación Flash en sí no es compatible con el motor porque éste no puede reconocerla. El segundo es que hay demasiadas palabras clave acumuladas en la página de inicio del sitio web. No hay mucho contenido en la página de inicio, y se acumulan tantas palabras clave que la densidad aumenta repentinamente. Este es el fenómeno de optimización excesiva más común.
3. Problemas con el programa del sitio web. El código del programa es demasiado complejo y muchos códigos que se pueden omitir no se limpian. En segundo lugar, se utilizan demasiados códigos de eventos js, lo que afecta en gran medida el rastreo del motor.
4. El título de la página del sitio web se repite mucho, ya sea la página de inicio o la página interior, los títulos y descripciones de todas las páginas de todo el sitio web son exactamente los mismos que los de la página de inicio. A los motores les disgusta el contenido duplicado. A cualquier motor le gusta el contenido nuevo, de modo que tenga contenido más rico que los usuarios puedan buscar. Demasiadas páginas duplicadas tienen títulos y descripciones duplicadas, a menos que el sitio web tenga un peso relativamente alto, será cuestión de tiempo antes de que sea degradado.
5. Tal vez el sitio web haya estado sin administrar durante demasiado tiempo y la otra parte haya eliminado la mayoría de los más de 20 enlaces amigables. Este problema es bastante grave. Todo el mundo sabe que lo más tabú de nuestros enlaces es la inestabilidad. Los enlaces amigables inestables pueden ser considerados fácilmente por el motor, ya que los enlaces anteriores se obtuvieron por medios inadecuados.
6. El sitio web se ha visto inundado de tráfico. Como estoy acostumbrado a instalar complementos que muestran los valores de relaciones públicas de Google y las clasificaciones de Alex en mi navegador, puedo conocer fácilmente las clasificaciones de relaciones públicas y Alex del sitio web que estoy navegando. Y el autor descubrió que la clasificación mundial de ese sitio web es en realidad más de 600.000. Aunque esto no es gran cosa para muchos sitios web, piense en cómo un sitio web corporativo puede tener tal clasificación. Se entiende que el sitio web nunca ha estado en línea y, naturalmente, tiene poco tráfico. ¿Cómo consiguió una clasificación mundial tan alta? Por lo tanto, el autor concluyó que el sitio web debió estar inundado de tráfico.
De los seis puntos anteriores se puede ver que los técnicos anteriores estaban demasiado ansiosos por la clasificación durante el proceso de optimización del sitio web. Para lograr la clasificación a corto plazo del sitio web, adoptaron algunos métodos relativamente irracionales. La calidad del sitio web, pero utilizó ciegamente la herejía, lo que resultó en el castigo de Baidu.
Según la situación actual en la que el peso del sitio web es muy pesimista, no es fácil de recuperar. El autor planea comenzar con la calidad general del sitio web, que incluye: comenzar con el código del sitio web, eliminar programas de código redundante, organizar la página general del sitio web, utilizar contenido original para atraer a las arañas Baidu, centrarse en la experiencia del usuario y hacer lo más posible. Tantos enlaces de alta calidad como sea posible para mejorarlo. Al clasificar las palabras clave, no debemos utilizar métodos injustos.
Este artículo fue creado originalmente por el webmaster de http://www.gdksjt.com Cinta EPDM. Indique la fuente del artículo al reimprimirlo.
Gracias a Sandayusisha.com por su contribución.