A turbulência do site K em 28 de junho ainda está fresca em minha mente, e um grande número de sites K não foram restaurados. Hoje, o administrador da comunidade de webmasters do Baidu, Lee, postou outro post, dizendo que a atualização do algoritmo não terminou. é o seguinte:
A diferença desta vez em relação ao “incidente 6.28” é que todos foram informados com antecedência de que o algoritmo seria atualizado, podendo haver uma onda de K-sites no futuro. foram destacados padrões de adaptação ao algoritmo.
1. O conteúdo é coletado aleatoriamente, as frases não são claras e os leitores não conseguem obter as informações de que precisam.
2. Embora o conteúdo seja legível, a maioria dos artigos é coletada e copiada de outros sites e não possui conteúdo original.
3. A página web é intercalada com palavras-chave ou artigos não relacionados ao tema, na tentativa de enganar os motores de busca, e não fornece ajuda substancial aos usuários que procuram palavras-chave relacionadas.
4. Finja ser um site oficial para enganar os usuários e faça declarações falsas no título e nas meta tags.
5. O site contém grande quantidade de conteúdo ilegal ou fraudulento, que pode causar prejuízos à segurança patrimonial dos usuários.
A partir desses anúncios, o autor tem algumas opiniões e aceita trocas.
1. O Baidu aumentou seu algoritmo para identificar o conteúdo original dos artigos Após o incidente anterior do site de 6,28K, o Baidu afirmou de várias maneiras que possui um algoritmo preliminar de identificação de conteúdo original e está constantemente melhorando-o (a Clínica de Consultas para Webmasters do Baidu foi inaugurada em 10 de agosto. mencionado muitas vezes no Japão e na China). Resta saber quão forte é essa capacidade de identificar a originalidade.
2. Sites com conteúdo semi-coletado ainda têm espaço para sobreviver. O algoritmo Baidu tem forte capacidade de reconhecimento original e é muito preciso. Para alguns webmasters, especialmente webmasters individuais, garantir que o site tenha uma certa proporção de conteúdo original ainda pode ganhar um lugar no Baidu.
3. Palavras-chave e densidade de palavras-chave ainda são o foco. Quando se tornou inútil e o preenchimento de palavras-chave se tornou o método de trapaça mais desatualizado, o Baidu reiterou especificamente esse ponto. O autor acredita que trabalhar com palavras-chave terá um grande papel no ranking da página.
4. Sites de phishing fraudulentos tornaram-se o foco de todos. O Baidu tem sido repetidamente manchado por sites fraudulentos e de phishing, por isso faz sentido trabalhar duro para fazer isso bem. Eu me pergunto se o webmaster estará implicado no processo de escolha de uma aliança publicitária porque a publicidade afiliada é ilegal.
"De acordo com nossa avaliação, esta atualização do algoritmo irá melhorar a experiência de pesquisa para 4% a 5% das palavras-chave, e a precisão do algoritmo atingiu um nível muito alto." Estimativa. Não sei qual será o resultado, vamos esperar para ver. Este artigo foi originalmente criado pelo webmaster do site de Promoção de Investimentos ( www.zsw365.com ). Você pode manter o link para reimpressão!
(Editor responsável: momo) Espaço pessoal do autor