A recente atualização estratégica do Baidu causou um apelo para "focar na construção de conteúdo" na Internet. Os webmasters começaram a discutir como construir um bom site e que tipo de design de site pode alimentar o apetite dos spiders. como criar um site surpreendente para atender à nova estratégia do Baidu. Gostaria de compartilhar minhas idéias com vocês aqui.
Primeiro: configurações de navegação amigáveis. Ao construir um site, não devemos considerar apenas o design da página inicial, mas também o design das páginas internas e o rastreamento do spider. Muitos sites colocam conteúdo apenas na página inicial durante o design e não há links para outras páginas internas. acesse o site para rastrear Depois de buscar o conteúdo da página inicial, você só pode optar por sair do site. Esse tipo de design de site só pode permitir que os spiders incluam uma página na página inicial e outras páginas não podem ser incluídas. Para a inclusão de páginas do site, as páginas internas do site não devem estar a mais de 5 cliques da página inicial. Isso exige que o site configure uma navegação amigável. A navegação da página da coluna superior do site, a seção de chamada da página inicial "mais" do link de navegação da página interna, a navegação estrutural da página interna: página inicial - página da coluna - página de conteúdo. Ao mesmo tempo, também existem vários tabus no design de navegação: não use navegação de imagens, não use navegação de salto JS, tente usar navegação simples de texto âncora de artigo e design de navegação amigável terá menos resistência a aranhas. A experiência também é a melhor para os usuários.
Segundo: Design de estrutura de página amigável. Para obter o efeito visual dos usuários, muitos sites de produtos usam uma grande quantidade de código JS, imagens, animações em Flash, etc. Esses códigos são incompreensíveis para os spiders. O design do site não deve levar em consideração apenas o efeito, mas também o efeito. também é melhor considerar a Sobrevivência nos motores de busca. Os webmasters que usam a ferramenta de sugestão de otimização de página lançada pelo Baidu descobrirão que o Baidu tem altos requisitos para simplificação do código do site. Depois que o site usa o código JS, ele deve ser colocado no final do código para reduzir o tempo de solicitação do spider. Ao mesmo tempo, as folhas de estilo CSS do site também devem ser mescladas para reduzir o código desnecessário. Tente não usar estrutura de quadro no site. É difícil para os spiders identificarem códigos de quadro e flash. Para as seções de publicidade do site e seções onde não há necessidade de transferência de peso, os webmasters podem usar tags iframe e nofollow para evitar perda desnecessária de peso.
Terceiro: código de salto amigável do site. Para os spiders dos mecanismos de busca, o único salto que não será considerado trapaça é o salto 301, que pode transferir completamente o peso para o novo site. Existem outras maneiras de pular URLs: salto 302, salto JS, salto de atualização meta, mas esses métodos de salto serão considerados pelos spiders como métodos de trapaça. Fazemos saltos apenas para transferir peso, então não há necessidade de escolher outros métodos de salto. do que 301 salto. Código Asp para salto 301 no host do Windows: <%@ Language=VBscript %> <% Response.Status="301 Movido permanentemente" Response.AddHeader "Location","Nome de domínio">. Código PHP: <Header("HTTP/1.1 301 Movido permanentemente");?>.
Quarto: Configurações estáticas de página amigável. A nova estratégia do Baidu tem altos requisitos para conteúdo de alta qualidade no site, e os webmasters também estão trabalhando duro para criar mais inclusões no site. As configurações de página estática podem tornar o site melhor incluído. Endereços dinâmicos causarão transtornos aos spiders ao rastrear conteúdo. É fácil para os spiders entrarem em um loop infinito ao rastrear ou incluir páginas duplicadas com frequência. Se desejar que as páginas do site sejam totalmente incluídas, você precisa projetar o site dinâmico. URLs para URLs estáticos. Muitos webmasters podem dizer que páginas dinâmicas também podem ser incluídas. Quando os spiders rastreiam o site, eles podem identificar endereços dinâmicos, mas isso causará dificuldade para os spiders incluí-los. ., webmasters, por que não fazer isso. Para sites que contêm conteúdo, os webmasters podem adicionar o seguinte código ao arquivo robots.txt: Disallow:/*?* para proibir que os spiders coletem conteúdo duplicado no site. Isso também levará algum tempo para os webmasters se recuperarem. ansioso depois de ingressar, espere pacientemente que o banco de dados seja armazenado em cache e ele não será incluído novamente.
Os webmasters estão trabalhando muito para operar o site. Se o site for punido por causa desses detalhes, será como chorar sem lágrimas. Então por que não usar o design do site para vencer de surpresa. Não importa como o Baidu atualize sua estratégia, desde que os webmasters possam fazer um bom trabalho nos detalhes e se concentrar na construção de conteúdo e melhorar a experiência do usuário, o site sobreviverá naturalmente por muito tempo.
Fonte original deste artigo: http://www.hlqxc.org Publicado pela primeira vez em A5, indique a fonte ao reimprimir.
(Editor responsável: momo) O espaço pessoal do autor estrôncio estrôncio