Hay un dicho en SEO: los detalles determinan el éxito o el fracaso. En la optimización SEO, siempre hemos enfatizado la atención a los detalles, porque es posible que un detalle que ignoramos en la optimización pueda hacer que nuestra optimización entre en un período de cuello de botella. son Cuando se hace cargo de un sitio antiguo para optimizarlo por primera vez, se encontrará con algunos problemas difíciles, como clasificaciones estancadas, ligeras caídas en las clasificaciones, inclusiones a veces hacia arriba y a veces hacia abajo, etc. A veces nos resulta difícil encontrar soluciones a estos problemas. Entonces, cuando nos hacemos cargo de un sitio web que está en medio de la optimización o de un sitio web que tiene algunos problemas, debemos diagnosticar y analizar los detalles de todos los aspectos y desenterrar los problemas de larga data, para que nuestra optimización pueda convertirse. proactivo Hoy permítanme discutir con ustedes el análisis detallado del diagnóstico de optimización del sitio anterior. ​
Cuando tomamos el control de un sitio web, lo primero que debemos hacer es el análisis del sistema. El análisis del sistema no mira el sitio web desde una perspectiva macro, sino que analiza el sitio web desde cada detalle. Cuando tomamos el control de un sitio web, debemos analizarlo. eso.que hora es. ​
1. Operación de Robots.txt​
La función principal de Robots.txt es procesar las páginas y rutas del sitio. Puede ayudarnos a bloquear algunas páginas sin contenido y enlaces inactivos, etc. Veamos Robots.txt desde tres aspectos.
1. Verificar si existe Robots.txt. Robots.txt es imprescindible para la optimización de nuestro sitio web. No tener Robots.txt significa que el SEO de este sitio web es muy deficiente. El método para verificar si existe Robots.txt. y puede ingresarlo directamente. El nombre de dominio/Robots.txt es suficiente. Generalmente, Robots.txt está en el directorio raíz. Si existe, podemos verlo. Si no, debemos hacerlo rápidamente. ​
2. Compruebe si Robots.txt está escrito correctamente. La mayoría de los webmasters deben comprender la sintaxis de Robots.txt. Lo que se debe enfatizar aquí es la disposición de Permitir y No permitir, sino Disallow. Primero prohibir y luego permitir. ​
3. Verifique las páginas y rutas bloqueadas por Robots.txt. Los webmasters debemos aprender a identificar algunas carpetas comunes en el sitio web. Abrimos cada página y ruta bloqueadas una por una para ver si estas páginas no son válidas y realmente deberían bloquearse. Todavía no es necesario. Al mismo tiempo, también debemos verificar el sitio: nombre de dominio para su inclusión para ver si hay páginas incluidas que deban bloquearse. ​
2. Análisis de diagnóstico de rutas de sitios web​
1. Detección de parámetros de rutas dinámicas. Muchos sitios web utilizan rutas dinámicas, y cada ruta dinámica tiene parámetros. Si una ruta dinámica tiene más de 3 o más parámetros, provocará directamente dificultades en la inclusión de la página. ¿Cuántos parámetros hay en una ruta dinámica? Es muy simple, solo mire los signos iguales en la ruta. Hay tantos parámetros como signos iguales. ​
2. Lo bueno y lo malo de las rutas pseudoestáticas. Las rutas pseudoestáticas también las usamos comúnmente. En ese momento, había muchas rutas pseudoestáticas que no se hicieron bien, lo que también afectó su inclusión. si hay signos de interrogación en sus rutas pseudoestáticas, u otros símbolos de parámetros o chino, significa que esta ruta pseudoestática ha fallado. Algunas rutas pseudoestáticas, como la pseudoestática de wp, a veces tienen /index.php/. detrás del nombre de dominio. Este tipo de pseudoestático también es muy malo. Debemos prestar atención a esto. ​
3. Verifique la racionalidad de la ruta. Se debe enfatizar una de las cuestiones sobre la racionalidad de la ruta, es decir, el problema de las rutas en chino y en inglés. A muchos webmasters les gusta usar rutas en chino porque piensan que parece intuitivo, pero. la inclusión de rutas chinas es mejor que las rutas puras. Es mucho más difícil incluir rutas alfabéticas, por lo que los webmasters deben tener cuidado al utilizar rutas chinas.​
3. Inspección de elementos de optimización de uso común​
Los elementos de optimización más utilizados incluyen: etiquetas canónicas, etiquetas nofollow, etiquetas H, etiquetas alt, etc.​
1. Déjame decirte la diferencia entre nofollow y robots.txt. Nofollow se usa principalmente para evitar que el peso se transfiera a URL externas, mientras que robots.txt se usa principalmente para bloquear URL internas. el otro es responsable del interior, clara división del trabajo. ​
2. La etiqueta canónica es algo que usamos con frecuencia, especialmente en foros. Esta etiqueta generalmente es adecuada para páginas de listas y paginaciones de páginas con alta similitud. Si tiene varias paginaciones o listas con alta similitud, debe indicarle al motor de búsqueda cuál. ¿Qué página utiliza para participar en el ranking de palabras clave? El método de escritura específico es el siguiente: < link href=" http://www.***.net/zhishi/ " rel="canonical" /> ​ ;
3. Todo el mundo está familiarizado con la etiqueta alt. Este atributo debe agregarse a cada imagen de nuestro sitio web para indicar a los motores de búsqueda el contenido de la imagen. Esto también es muy importante y no debe ignorarse. ​
4. La etiqueta H es principalmente adecuada para páginas con muchos títulos de contenido. Si su página de contenido tiene un título intermedio y un subtítulo debajo del título grande, y hay muchos títulos, entonces debe agregar la etiqueta H para crear la etiqueta. página organizada. Generalmente, no existe tal cosa en la página de inicio. Es necesario agregar esto. ​
4. Análisis de similitud de páginas del sitio web y análisis de fallas de optimización del sitio web.
1. La similitud de un sitio web depende principalmente del texto de la plantilla del sitio web. Observe la proporción del texto de la plantilla del sitio web con respecto al contenido principal de todo el sitio web. Si la proporción del texto de la plantilla ocupada es demasiado alta. Afectará directamente la similitud del sitio web. En este momento, es necesario simplificar nuestro texto estándar. ​
2. Las fallas de optimización del sitio web son principalmente el diagnóstico de la velocidad de apertura del sitio web, títulos largos, rutas largas, etc. Para la optimización de la velocidad del sitio web, me gustaría recomendarle una herramienta, que es la velocidad de página de Firefox. Debemos detectarlo muy bien. Analizar los motivos que afectan la velocidad del sitio web y brindar soluciones. Problemas como títulos largos y rutas largas no pueden ignorarse. Estos son asuntos que restarán puntos por optimización. ​
5. Inspección de enlaces externos al sitio web​
Pregunte principalmente si ha comprado enlaces, pregunte en detalle cuándo comenzó a comprar enlaces, dónde compró enlaces, si todavía compra enlaces ahora, verifique sus dominios relacionados con Baidu, verifique si el sitio web tiene contenido publicado masivamente, verifique los enlaces de Google Link a ver el sitio web Procesamiento de páginas de alta autoridad. ​
6. Análisis de los motivos de la degradación de los derechos del sitio web​
Si el sitio web que asumimos sufre una degradación, debemos plantearnos y analizar las siguientes preguntas. ​
1. Si se cambió el título del sitio web, si se cambiaron el programa y la ruta, si se cambió la ruta y si se realizó el procesamiento correspondiente, como el procesamiento de robots.txt, y si se cambió la plantilla. ​
2. Verifique su registro de IIS para averiguar si se trata de un problema del servidor u otros problemas que causaron la degradación. ​
3. Analizar la estabilidad de sus enlaces externos Hay tres factores principales de enlaces externos que causan la reducción de autoridad: Primero, la pérdida a gran escala de enlaces externos, principalmente debido a la eliminación de cuentas o enlaces comprados inestables. En segundo lugar, hay muchos enlaces externos spam en el sitio web. En tercer lugar, hay factores que intervienen en la reducción de la autoridad de los vínculos amistosos. ​
Después de diagnosticar y analizar todo el sitio web, podemos analizar aproximadamente los problemas existentes en el sitio web, formular soluciones para diferentes problemas y llevar a cabo el siguiente paso del trabajo de optimización. ​
Este artículo fue publicado por primera vez en http://www.51diaoche.net original A5. Bienvenido a la reimpresión.
Editor a cargo: Chen Long Autor Espacio personal de Longfeng Hoisting Machinery