A recente atualização do algoritmo do Baidu fez com que muitos amigos webmasters reclamassem da crueldade do Baidu, especialmente para alguns webmasters que administram sites corporativos. A maioria dos sites corporativos foi afetada pela atualização do algoritmo e o rastreamento do site foi eliminado. O algoritmo do Baidu está sendo constantemente atualizado e atualizado. Como os webmasters que trabalham duro podem lidar com esse algoritmo frequente?
Primeiro: remova o conteúdo de spam do site.
O Baidu declarou oficialmente estritamente que um grande número de sites de baixa qualidade serão punidos na atualização 6.28. Os fatos mostram que há de fato um grande número de sites altamente coletados e pseudo-originais que foram punidos. Para sobreviver com segurança no algoritmo do Baidu, a primeira coisa a fazer é remover as páginas de spam do site. Se no site existirem dados inúteis, incompletos, inadequados para os utilizadores, ou se forem dados totalmente recolhidos, especialmente as “páginas ponte”, “páginas publicitárias”, etc. os webmasters devem fazer isso o mais rápido possível. Remova esse conteúdo indesejado. Quando um spider chega a um site para rastrear conteúdo, mesmo que você não tenha alta tecnologia para saber se é uma originalidade falsa, você pode colocá-lo em URLs diferentes com base no título do site, se o mesmo conteúdo é o mesmo e se o título, a tag e o texto âncora do link interno da página são A presença de um grande número das mesmas palavras-chave, etc., serão os critérios para os spiders julgarem se é conteúdo de spam. . As páginas da Web com esse tipo de conteúdo precisam ser removidas imediatamente para evitar impacto a longo prazo na qualidade do site.
Segundo: remova links de trapaça.
Links fraudulentos são muito comuns na otimização de sites corporativos. Para melhorar rapidamente as classificações de palavras-chave, os webmasters compram um grande número de links para o site. Muitos links vêm de sites de imagens de spam ou de sites que não dependem de métodos formais de otimização para aumentar. Embora esses links possam melhorar a classificação do site em um curto período de tempo, o algoritmo Baidu 10.23 punirá os sites com hiperlinks fraudulentos, para que os webmasters não possam mais explorar brechas, links unidirecionais fraudulentos e links cruzados sem sentido. todos podem ser usados e removidos do site. A otimização de links externos é a alma da otimização de sites. Se um site deseja sobreviver a longo prazo, ele precisa encontrar links de alta qualidade para o site após remover spam e links fraudulentos. ;plataforma de artigos flexíveis: A5, iResearch, blogs donews: Sina, Tianya, Sohu; informações classificadas: 58, lista, sites de diretório de pessoas comuns: Tuiyou.com, estação de navegação de sites, etc. Links de spam fraudulentos não são necessários. Os webmasters só podem encontrar links dos sites de alto peso acima ou seguir as regras de otimização do Baidu para sobreviver por um longo tempo.
Terceiro: Fortalecer a construção de conteúdo de alta qualidade
O ditado de que o conteúdo é rei sempre foi respeitado na comunidade de webmasters. Os fatos provaram que apenas conteúdo de alta qualidade pode manter um site funcionando por muito tempo. Depois de passar por atualizações frequentes do algoritmo do Baidu, os webmasters precisam se concentrar no site. construção de conteúdo. Depois de remover os métodos de otimização que o Baidu não aprova, o que o site precisa é atrair spiders para rastrear novas páginas e dar um novo peso ao site. Como podemos construir conteúdo de alta qualidade Os seguintes pontos são indispensáveis para um conteúdo de alta qualidade.
Em primeiro lugar: crie conteúdo para os usuários e entenda que tipo de conteúdo seus usuários precisam para chegar ao seu site, seja como usar o produto, a exibição do produto da empresa, o valor de uso do produto ou o preço específico do produto. produto, etc. Todos eles se tornarão fontes de conteúdo para webmasters. Acontece que, ao criar conteúdo de alta qualidade, você não pode simplesmente copiar e colar conteúdo da Internet. Os webmasters precisam explorar e fornecer conteúdo para os próprios usuários. O título da página web deve ser na forma de nome do conteúdo + palavras-chave + nome da empresa. O mesmo título não pode ser usado para todo o site.
Em segundo lugar: crie conteúdo para mecanismos de pesquisa. Os spiders chegam ao site para rastrear o conteúdo. O que eles precisam é ser capazes de rastrear o conteúdo desejado sem problemas. links mortos, etc. no site. Todos eles afetarão o rastreamento do conteúdo do site pelos spiders. Para evitar o aparecimento de tais fatores no site, adicione tags alt às imagens, use o mínimo possível de flash e código JS e. simplifique o código do site para que ele possa ser rastreado por spiders de maneira mais rápida e completa.
O algoritmo do Baidu é constantemente atualizado, mas permanece inalterado, desde que otimizemos de acordo com os requisitos oficiais do Baidu, coloquemos os clientes em primeiro lugar e coloquemos a principal energia de otimização na construção do conteúdo do site, somente construindo bem o conteúdo poderemos lidar com os frequentes do Baidu. atualizações. Espero que os métodos de enfrentamento compartilhados acima possam ajudar os webmasters a sobreviver melhor ao desastre do Baidu.
Fonte original deste artigo: http://www.hlqxc.org Publicado pela primeira vez em A5, indique a fonte ao reimprimir.
(Editor: Yang Yang) Espaço pessoal do autor Estrôncio Estrôncio