Embora o SEO não seja mais desconhecido na China e até tenha se tornado uma indústria, ainda não existe um método de análise muito científico e sistemático na indústria. O motivo provavelmente se deve à particularidade da indústria de otimização de mecanismos de busca. Os mecanismos de pesquisa protegem rigorosamente seus algoritmos e publicam apenas diretrizes que são difíceis de entender por quê. Muitos SEOers estão jogando um jogo em que nunca conhecem as regras específicas, o que é uma fonte de confusão neste setor.
Enfatizei repetidamente a importância das "Diretrizes de qualidade de sites do Google" porque essas são as únicas regras corretas que os mecanismos de pesquisa informam aos proprietários de sites. Se você nem mesmo dominar essas regras, não tenho certeza se poderá segui-las. para obter orientação mais confiável. Mas no combate real, embora você tenha lido bem este “Guia” e já conheça as regras dos motores de busca melhor do que muitas pessoas, não basta apenas saber disso. Um conjunto de métodos de análise científica e sistemática pode ajudá-lo a ir mais longe.
Acho que depois de tantos anos de desenvolvimento em SEO, não deveria mais existir o tipo de método de análise que depende da análise perceptual para fazer SEO. Uma afirmação comumente usada neste método de análise é: O que eu acho que o mecanismo de busca fará. Por exemplo: acho que os motores de busca não são tão estúpidos e eles definitivamente podem lidar com isso; acho que os motores de busca considerarão esse fator como um dos fatores de classificação... Se você confia na análise perceptual para fazer SEO, então a curva de mudança do seu tráfego de SEO também é muito perceptiva. É claro que não devemos fazer especulações e boatos infundados. Por exemplo: adivinhar o que os motores de busca farão sem uma base teórica, ou seguir cegamente discursos feitos por funcionários relevantes dos mecanismos de busca e figuras de autoridade.
Como o mecanismo de busca não nos informa o algoritmo específico, como podemos estabelecer esse método de análise científica e sistemática? A resposta é: comece com uma teoria que você sabe que é definitivamente correta e, lentamente, desenvolva-a na prática.
O processo de análise do artigo anterior "Como a velocidade de carregamento da página da Web afeta os efeitos de SEO" foi baseado na análise de uma teoria bem conhecida, e então obtivemos outro fator exato que afeta o tráfego de SEO. Nesse processo, a teoria que tenho certeza que está correta é: o rastreador do mecanismo de busca deve ter rastreado aquela página antes de ter a oportunidade de incluí-la. De acordo com a análise de dados a seguir no artigo, pode-se concluir que a velocidade de carregamento da página da web afetará muito o tráfego de SEO.
Em seguida, analise quais medidas podem afetar a velocidade de carregamento das páginas web? O ambiente de rede, o hardware do servidor e o próprio CMS podem afetar a velocidade de carregamento da página da web. Otimizar qualquer um deles pode melhorar a velocidade de carregamento da página da web. Pode-se concluir imediatamente que o ambiente de rede afeta o tráfego SEO, o hardware do servidor afeta o tráfego SEO e a velocidade do próprio CMS afeta o tráfego SEO.
A seguir, analise o que pode ser feito para otimizar o próprio CMS? Ativar a compactação Gzip, mesclar arquivos CSS e JS, reduzir consultas DNS, ativar o cache, etc., podem otimizar a velocidade do próprio CMS. ...Essas coisas parecem tão familiares, é porque essas sugestões foram contadas a você em "Desempenho do site" em "Ferramentas do Google para webmasters". Porém, de acordo com nosso processo de análise acima, podemos saber que as otimizações mencionadas em “Desempenho do Site” são todas otimizações do próprio CMS, e não mencionam a otimização do ambiente de rede e hardware do servidor. Só que você tem certeza de que esses dois fatores realmente afetam o tráfego de SEO. Se um dia aparecer um artigo no “Google Blackboard” ou no blog oficial do Google (você precisa contornar o firewall) dizendo como escolher um bom provedor de hospedagem de servidores, não se surpreenda, pois você já sabe o porquê. O Google sempre usou esse método para lhe dizer como otimizar certos fatores, mas do ponto de vista deles, eles não explicarão em detalhes por que deveriam fazer isso.
Através da análise de dados, também podemos saber quem tem maior impacto e quem tem menor impacto.
Muitos fatores de bom senso podem evoluir passo a passo desta forma. Este processo de análise é muito científico. Você pode explicar os princípios com muita clareza, tanto para você quanto para os outros. E neste processo evolutivo, você descobrirá que é cada vez mais capaz de controlar o tráfego de SEO. Cada etapa da evolução significa que você conhece um pouco mais sobre os mecanismos de busca, sua estrutura de conhecimento de SEO melhorou um pouco mais e, ao mesmo tempo, sua capacidade de controlar o tráfego de SEO se tornou mais forte. Ao mesmo tempo, você descobrirá que terá cada vez menos conflitos com web designers e engenheiros, porque um bom SEO não permitirá que os interesses do SEO e dos web designers e engenheiros entrem em conflito.
Estrutura de conhecimento, controlabilidade de SEO, relacionamentos entre departamentos
Contanto que você tenha experimentado muitos desses processos de análise, isso certamente subverterá a estrutura original de conhecimento de SEO de muitas pessoas. Porque muitos dos métodos de SEO que circularam no passado eram em sua maioria baseados em análises perceptivas, sem explicação de por que deveriam ser feitos, sem suporte de dados, ou mesmo suporte teórico, então eles perderam o foco. Eu disse em "Segmentação de palavras e biblioteca de índices" que coisas que você pode considerar detalhes são, na verdade, pontos-chave, e coisas que você considera pontos-chave podem, na verdade, ser ignoradas.
Então, no trabalho diário de SEO, quais recursos o apoiam para realizar tal processo de análise?
Não sei se você ainda se lembra das quatro habilidades que mencionei em “Como Aprender SEO” neste processo de análise:
1. Compreender as tecnologias e princípios relacionados aos mecanismos de pesquisa: você pode compreender fundamentalmente os mecanismos de pesquisa, determinar muitas teorias que devem estar corretas e encontrar muitas pistas que valem a pena analisar.
2. Compreender as tecnologias relacionadas à produção de sites: Permitirá saber quais fatores do site podem afetar quais aspectos do mecanismo de busca e quais métodos utilizar para resolver o problema.
3. Capacidade de análise de dados: você pode entender como vários fatores existentes afetam o tráfego de SEO e confiar nessa capacidade para explorar mais fatores. O processo científico e sistemático de análise de SEO é indissociável do suporte de dados do início ao fim.
4. Entenda o mecanismo de pesquisa que você deseja classificar: não importa o quanto você tente, ainda haverá alguns problemas que não podem ser compreendidos tanto estatisticamente quanto teoricamente. Todo mecanismo de busca, assim como as pessoas, tem um certo temperamento. Você pode obter a resposta através do seu conhecimento deste mecanismo de busca. Ao mesmo tempo, compreender esse mecanismo de busca também pode fornecer mais fatores que podem ser analisados.
Finalmente, este método de análise científica e sistemática de SEO baseado no bom senso pode controlar melhor o tráfego de SEO do que compreender os algoritmos de alguns motores de busca.
Muitas pessoas podem refutar essa visão. Por exemplo, há algum tempo, meu amigo me disse que o fundador de um site B2C de comércio exterior veio do Google, então eles devem ser capazes de fazer um bom trabalho em SEO. Somente aqueles que já fizeram mecanismos de pesquisa entenderão o porquê. Por exemplo: o site B2B do Alibaba também pode ser considerado um mecanismo de busca. Eu conheço as regras de classificação, mas se você me fornecer o site de um comerciante e me pedir para obter tráfego no Alibaba, antes que haja um método científico e sistemático, eu o farei. definitivamente não foi bem feito. Como o algoritmo dos motores de busca não é adição, subtração, multiplicação e divisão, não é a combinação desse fator e daquele fator que levará a um bom tráfego. Os projetistas dos motores de busca sabem o peso deste ou daquele fator e os resultados aproximados que podem ser produzidos, mas não podem controlar os resultados específicos. Caso contrário, as pessoas do Baidu não pesquisariam milhares de palavras todos os dias para verificar a precisão dos resultados da pesquisa. Parte do sucesso do Google se deve ao fato do Yahoo ter adotado sua tecnologia de busca, o que permitiu ao Google acumular uma grande quantidade de dados, praticar e aprimorar seus algoritmos.
Além disso, dentro dos motores de busca, apenas algumas pessoas sabem o peso de cada fator. A maioria dos engenheiros que projetam os motores de busca são responsáveis por uma tarefa específica, otimizando e resolvendo um problema específico, como os responsáveis pelos rastreadores. trabalho para melhorar a eficiência do rastreador, e os engenheiros responsáveis pela desduplicação de conteúdo reduzem o índice de conteúdo duplicado. Até os engenheiros que projetaram este mecanismo de busca são assim, muito menos uma pessoa de uma filial em outro país. Caso contrário, tantos engenheiros demitidos do Baidu e do Google teriam vazado o algoritmo há muito tempo.
Se você puder criar um mecanismo de busca em pequena escala usando programas de código aberto, será capaz de entender melhor esse problema. Mesmo que você mesmo configure o algoritmo do mecanismo de pesquisa, não poderá prever os resultados da pesquisa subsequentes. E uma coisa é ser um mecanismo de pesquisa, outra é direcionar tráfego nos mecanismos de pesquisa. Caso contrário, o Google não perceberá que a velocidade de carregamento da página original afeta o tráfego de SEO.
Fonte do artigo: http://www.semyj.com/archives/1032 Autor: Guoping