Existe um ditado em SEO: os detalhes determinam o sucesso ou o fracasso. Na otimização de SEO, sempre enfatizamos a atenção aos detalhes, porque é possível que um detalhe que ignoramos na otimização possa fazer com que nossa otimização entre diretamente em um período de gargalo. são Quando você assume um site antigo para otimização pela primeira vez, você encontrará alguns problemas difíceis, como classificações estagnadas, ligeiros declínios nas classificações, às vezes inclusões para cima e às vezes para baixo, etc. , então, quando assumimos um site que está no meio da otimização ou que apresenta alguns problemas, precisamos diagnosticar e analisar os detalhes de todos os aspectos e desenterrar os problemas de longa data, para que nossa otimização possa se tornar. proativo. Hoje Deixe-me discutir com vocês a análise detalhada do diagnóstico de otimização do site antigo. ​
Quando assumimos o controle de um site, a primeira coisa que precisamos fazer é a análise do sistema. A análise do sistema não olha o site de uma perspectiva macro, mas analisa o site em todos os detalhes. isso. Que horas são. ​
1. Operação de Robots.txt​
A principal função do Robots.txt é processar as páginas e caminhos do site. Isso pode nos ajudar a bloquear algumas páginas sem conteúdo e links inativos, etc. Vejamos o Robots.txt sob três aspectos.
1. Verifique se existe Robots.txt. Robots.txt é obrigatório para a otimização do nosso site. Não ter Robots.txt significa que o SEO deste site é muito ruim. e você pode inseri-lo diretamente. O nome de domínio/Robots.txt é suficiente. Geralmente, Robots.txt está no diretório raiz. Se existir, podemos vê-lo. ​
2. Verifique se o Robots.txt está escrito corretamente. A maioria dos webmasters deve entender a sintaxe do Robots.txt. O que precisa ser enfatizado aqui é a disposição de Permitir e Proibir. Primeiro banir e depois permitir. ​
3. Verifique as páginas e caminhos bloqueados pelo Robots.txt. Nós, webmasters, devemos aprender a identificar algumas pastas comuns no site. Abrimos cada página e caminho bloqueados, um por um, para ver se essas páginas são inválidas e realmente devem ser bloqueadas. ainda é desnecessário. Ao mesmo tempo, também precisamos verificar o site: nome de domínio para inclusão para ver se há alguma página na inclusão que precisa ser bloqueada. ​
2. Análise diagnóstica de caminhos de sites​
1. Detecção de parâmetros de caminhos dinâmicos Muitos sites usam caminhos dinâmicos, e cada caminho dinâmico possui parâmetros. Se um caminho dinâmico tiver mais de 3 ou mais parâmetros, isso causará diretamente dificuldade na inclusão da página. quantos parâmetros existem em um caminho dinâmico É muito simples, basta olhar para os sinais de igual no caminho. Existem tantos parâmetros quantos sinais de igual. ​
2. Os bons e os maus caminhos pseudoestáticos também são comumente usados por nós. Naquela época, havia muitos caminhos pseudoestáticos que não eram bem executados, o que também afetou sua inclusão. se houver pontos de interrogação em seus caminhos pseudoestáticos, ou outros símbolos de parâmetro ou chinês, significa que esse caminho pseudoestático falhou. Alguns caminhos pseudoestáticos, como o pseudoestático do wp, às vezes têm /index.php/. por trás do nome de domínio. Essa pseudo-estática também é muito ruim, devemos prestar atenção a isso. ​
3. Verifique a racionalidade do caminho Deve-se enfatizar uma das questões sobre a racionalidade do caminho, ou seja, o problema dos caminhos chineses e dos caminhos ingleses. Muitos webmasters gostam de usar os caminhos chineses porque acham que parece intuitivo, mas. a inclusão de caminhos chineses é melhor do que caminhos puros. É muito mais difícil incluir caminhos alfabéticos, portanto os webmasters devem ter cuidado ao usar caminhos chineses.
3. Inspeção de elementos de otimização comumente usados​
Os elementos de otimização comumente usados incluem: tags canônicas, tags nofollow, tags H, tags alt, etc.
1. Deixe-me dizer a diferença entre nofollow e robots.txt. Nofollow é usado principalmente para evitar que o peso seja transferido para URLs externos, enquanto robots.txt é usado principalmente para bloquear URLs internos. outro é responsável pela divisão interna e clara do trabalho. ​
2. A tag canônica é algo que usamos com frequência, especialmente em fóruns. Essa tag geralmente é adequada para páginas de listas e paginações de páginas com alta similaridade. Se você tiver várias paginações ou listas com alta similaridade, será necessário informar ao mecanismo de busca. página que você usa para participar da classificação de palavras-chave O método de escrita específico é o seguinte: < link href=" http://www.***.net/zhishi/ " rel="canonical" / > ​ ;
3. Todos estão familiarizados com a tag alt. Este atributo deve ser adicionado a todas as imagens do nosso site para informar aos mecanismos de pesquisa o conteúdo da imagem. ​
4. A tag H é adequada principalmente para páginas com muitos títulos de conteúdo. Se a sua página de conteúdo tiver um título intermediário e um subtítulo abaixo do título grande, e houver muitos títulos, você precisará adicionar a tag H para fazer a tag. página organizada. Geralmente, não existe tal coisa na página inicial. É necessário adicionar isso. ​
4. Análise de similaridade de páginas de sites e análise de falhas de otimização de sites​
1. A semelhança de um site depende principalmente do texto do modelo do site. Observe a proporção do texto do modelo do site em relação ao conteúdo principal de todo o site. Se a proporção do texto do modelo ocupado for muito alta. afetará diretamente a semelhança do site. Neste momento, é necessário simplificar nosso texto padrão. ​
2. As falhas de otimização de sites são principalmente diagnóstico de velocidade de abertura de sites, títulos longos, caminhos longos, etc. Para otimização de velocidade de sites, gostaria de recomendar uma ferramenta para você, que é a velocidade de página do Firefox. analisar os motivos que afetam a velocidade do site e fornecer soluções. Problemas como títulos longos e caminhos longos não podem ser ignorados. ​
5. Inspeção de links externos do site​
Pergunte principalmente se você comprou links, pergunte detalhadamente quando você começou a comprar links, onde você comprou links, se você ainda compra links agora, verifique seus domínios relacionados ao Baidu, verifique se o site tem conteúdo postado em massa, verifique os links do Google Link para veja o site Processamento de páginas de alta autoridade. ​
6. Análise dos motivos do downgrade dos direitos do site​
Caso o site que assumimos sofra um downgrade, precisamos fazer e analisar as seguintes perguntas. ​
1. Se o título do site foi alterado, se o programa e o caminho foram alterados, se o caminho foi alterado e se o processamento correspondente foi feito, como o processamento de robots.txt, e se o modelo foi alterado. ​
2. Verifique o log do IIS para descobrir se é um problema no servidor ou outros problemas que causaram o downgrade. ​
3. Analise a estabilidade de seus links externos. Existem três fatores principais de links externos que causam a redução de autoridade: Primeiro, perda em grande escala de links externos, principalmente devido à exclusão de contas ou links adquiridos instáveis. Em segundo lugar, há muitos links externos de spam no site. Terceiro, existem factores envolvidos na redução da autoridade dos laços de amizade. ​
Depois de diagnosticar e analisar todo o site, podemos analisar aproximadamente os problemas existentes no site, formular soluções para os diversos problemas e realizar a próxima etapa do trabalho de otimização. ​
Este artigo foi publicado pela primeira vez por http://www.51diaoche.net original A5. Bem-vindo à reimpressão.
Editor responsável: Espaço pessoal do autor Chen Long Longfeng Hoisting Machinery