Os mecanismos de pesquisa começaram a limpar o spam em sites web2.0 Recentemente, o webmaster do Baidu emitiu a "Estratégia Anti-Spam Web2.0" para conter a proliferação de spam, mensagens em massa, links externos de SEO e outros spams na web2. 0 sites, o mecanismo anti-spam web2.0 tomou forma gradualmente na otimização de classificação de mecanismos de pesquisa e é recomendado que os operadores de sites participem de estratégias anti-spam.
Primeiro, vamos falar sobre as vantagens dos sites web2.0: a organização das informações vem dos usuários, e os usuários podem interagir entre si, formando uma plataforma de desenvolvimento para compartilhamento de recursos. Desvantagens dos sites web2.0: reduz o limite técnico para os usuários. participe da divulgação e troca de informações da rede, e os usuários podem Sinta-se à vontade para criar conteúdo de seu interesse, e os mecanismos de pesquisa não podem julgar se ele é valioso.
O lixo de publicação da Web 2.0 gerará informações inúteis basicamente:
1. Aberto aos usuários, sejam blogs atuais, fóruns, b2b, informações classificadas, Weibo ou SNS, os usuários podem se registrar para comunicar, publicar e criar conteúdo. ' organização espontânea. Sua abertura levou ao influxo de uma grande quantidade de informações externas, que por si só não requer muitos programas e bases de produção de sites A popularização da construção de informações e a abertura do usuário tornaram-se a fonte da proliferação da web2. 0 informações.
2. Sociabilidade e sociabilidade são fatores importantes na geração de informações da web2.0. A web2.0 é baseada em conteúdo criado pelo usuário e é um modelo de informação gerado com base na sabedoria do público. perspectiva do usuário. Sim, se os usuários criarem uma grande quantidade de conteúdo e links inúteis, eles também serão a fonte de informações de spam. As informações são agregadas por meio de diferentes usuários e de diferentes maneiras, e esses mecanismos de busca de informações não podem julgar se são realmente valiosos. Informação.
Os mecanismos de pesquisa começaram a limpar links externos indesejados. Em relação aos sites web2.0 atuais, o mecanismo de pesquisa Baidu observa:
1. A coleta de um grande número de conteúdos de sites foi reduzida. Entre eles, a coleta e cópia de sites estão em um estado instável. A coleta e cópia de conteúdo de sites podem enfrentar revisão secundária do site pelos mecanismos de busca.
2. Os links externos do site tendem a ser altos e às vezes baixos. Os mecanismos de pesquisa podem julgar links de sites irrelevantes como links de spam de baixa qualidade, e esse julgamento pode levar diretamente a uma alta taxa de perda de links externos para o site ou a uma redução na taxa de perda de links externos para o site. autoridade.
A atual "estratégia anti-spam web2.0" de Shenzhen SEO para o mecanismo de pesquisa Baidu aprendeu que o Baidu apresenta duas tendências para conteúdo e links externos:
1. Sites com conteúdo confiável têm maior probabilidade de ganhar confiança e classificação nos mecanismos de pesquisa.
2. O papel dos links externos relevantes está ficando cada vez mais forte, e um grande número de links importados de sites relevantes pode melhorar a classificação de palavras-chave do site. Links externos com baixa relevância serão removidos dos domínios relacionados ao Baidu ou links irrelevantes não participarão dos cálculos de classificação.
3. Com base no ponto 2, se o site não tiver diversidade de nomes de domínio e o texto âncora não tiver diversidade quando os links externos flutuam, isso pode levar a classificações de palavras-chave instáveis e é mais provável que seja rebaixado pelos mecanismos de pesquisa.
Este artigo foi escrito originalmente por Shenzhen SEO Website Optimization. Por favor, indique Shenzhen SEO Optimization ao reimprimir http://www.seoere.com/seo-share/1358.html.
(Editor: Chen Long) Espaço pessoal do autor seoere