Baidu Webmaster Platform lança guia anti-spam detalhado para Web 2.0
A Admin5 Webmaster Network informou em 2 de maio que hoje a Baidu Webmaster Platform lançou o "Guia Detalhado Anti-Spam Web2.0" para fornecer claramente padrões de julgamento e estratégias de resposta para o grande número de mensagens de spam em massa atualmente existentes em sites nacionais. Funcionários do Baidu afirmaram que, como a maioria dos sistemas de construção de sites da web 2.0 apresentam lacunas, o custo técnico para superá-las é baixo e o software de envio em massa é barato e fácil de ser explorado por trapaceiros. Um grande número de sites da web 2.0 são infestados de spam em massa. mensagens. Além dos sites tradicionais da web 2.0, como fóruns e blogs, serem problemáticos, ele agora se espalhou para Weibo, SNS, páginas de informações de negócios B2B, páginas amarelas de empresas, informações classificadas, sites de vídeo, discos de rede e outros campos, e até mesmo comunidades de compartilhamento emergentes também são afetados. Desde postagens anteriores em fóruns e registros de blog até páginas de informações de oferta e demanda, páginas de vídeo e páginas de perfil de usuário, qualquer lugar onde o conteúdo seja preenchido e gerado por usuários será descoberto e explorado por trapaceiros, formando um grande número de páginas de spam da web 2.0. .
O Baidu também afirmou que os mecanismos de pesquisa responderão de acordo após descobrirem páginas de spam da web 2.0, mas é difícil reprimir efetivamente os trapaceiros que realmente operam mensagens em massa. seus próprios Esses recursos de segurança levarão a mais comportamentos que prejudicam o site, os usuários e os mecanismos de pesquisa. Se o webmaster permitir que o conteúdo de spam cresça sem controle, isso não só afetará a experiência do usuário no site, mas também prejudicará a reputação do site e a construção de sua própria marca, causando perdas normais ao usuário. Em casos graves, também fará com que os motores de busca diminuam a avaliação do site.
O "Guia detalhado do anti-spam da Web 2.0" esclarece qual conteúdo será considerado spam pelo Baidu. 1. Conteúdo que é inconsistente com o tema do site ou seção do fórum; 2. Conteúdo que engana os usuários dos mecanismos de pesquisa; 3. Conteúdo que engana o site, fazendo-o fraudar receitas de publicidade de contas divididas; promover e beneficiar-se de conteúdo. 5. Informações incorretas que violam leis e regulamentos, como informações de contato fraudulentas para ganhadores de loteria, números de contato falsos e informações incorretas.
Ao mesmo tempo, o Baidu também fez sugestões sobre como os webmasters devem lidar com o conteúdo de spam: 1. Excluir conteúdo de spam 2. Aumentar o limite para usuários registrados e restringir o registro da máquina 3. Controlar estritamente o comportamento de postagem da máquina, como o uso de códigos de verificação; , Limitar a postagem contínua em um curto período de tempo 4. Estabelecer um mecanismo de lista negra 5. Monitorar anormalidades dentro do site 6. Monitorar o comportamento dos usuários dentro do site; evite impeachment do Windows, saltos e outras situações que afetam seriamente a experiência do usuário. 8. Use "nofollow" para marcar links mencionados em alguns locais da web 2.0. 9. Para seções de anúncios e spam no fórum, é recomendado adicionar restrições de permissão ou proibir mecanismos de busca de incluí-los; do programa de construção de sites, instale patches em tempo hábil.
O algoritmo “Penguin” do Google começa a limpar sites com SEO excessivo
O Google lançou um novo algoritmo chamado “Panda” em fevereiro do ano passado, com o objetivo de reprimir vários sites de “fazenda de conteúdo” cheios de informações de baixa qualidade. Recentemente, eles lançaram um novo algoritmo conhecido como “Penguin”, que tem como alvo sites que usam métodos excessivos de SEO para melhorar suas classificações. Na verdade, entre o Panda e o Penguin, eles também lançaram um algoritmo direcionado para combater sites que colocam um grande número de anúncios na frente do texto, mas essa atualização não tinha nome oficial.
O Google introduziu no início deste ano um “algoritmo de layout de página” que reduz a classificação de sites que não possuem muito conteúdo de qualidade. No início de março, o engenheiro do Google Matt disse que os sites que usassem excessivamente a otimização de mecanismos de busca seriam punidos. No final de março, um grande número de webmasters nacionais recebeu notificações das "Ferramentas do Google para webmasters" sobre links artificiais. Agora parece que os ajustes anteriores do algoritmo do Google estão abrindo caminho para o novo algoritmo “Penguin”. O lançamento do “Penguin” indica que o Google tomará uma atitude mais rigorosa para lidar com o SEO excessivo de sites, visando o SEO “black hat”. grande número de penalidades no site e no site serão impostas por excesso de palavras-chave estrangeiras, inserção aleatória de links em conteúdo irrelevante, etc. Incentive o SEO "white hat" e incentive os webmasters a investir mais energia na otimização da experiência do usuário para obter classificações mais altas.
Comentário do editor: O diagnóstico de SEO A5 ( http://seo.admin5.com/ ) sempre recomendou que os webmasters fizessem uso razoável de SEO para melhorar o conteúdo do site e a experiência do usuário. A partir dos recentes ajustes nos algoritmos dos mecanismos de pesquisa e nas recomendações de SEO do Baidu e do Google, podemos ver que a experiência do usuário se tornou o principal critério para os mecanismos de pesquisa avaliarem os sites, e seu impacto nas classificações dos sites está se tornando cada vez mais importante. O Baidu, em particular, faz ajustes frequentes em algoritmos e sugestões de SEO. Não muito tempo atrás, o Baidu adicionou prompts do Baidu aos resultados da pesquisa para palavras-chave como "seo" para lembrar aos webmasters que SEO é uma tarefa muito importante. Consulte as sugestões do Baidu sobre SEO. Recomenda-se que os webmasters não adotem métodos de “chapéu preto” para otimizar demais seus sites, a fim de evitar penalidades dos mecanismos de pesquisa. Incentive os webmasters a usar métodos de “chapéu branco” para usar o SEO corretamente e melhorar a experiência do usuário no site. Durante o período 315, o Baidu também lançou um link de texto na página inicial para expor sites promovidos ilegalmente. A inclusão pelo Baidu de conteúdo de sites de redes sociais como Weibo e SNS e o lançamento do Baidu Share também indicam que a pesquisa social se tornou uma tendência. O conteúdo de spam da WEB2.0 terá menos impacto de curto prazo no tráfego e nas classificações do site, incentivando mais sites. Ao otimizar a experiência do usuário e direcionar o tráfego das redes sociais. Portanto, os webmasters devem usar métodos como postagem em massa para aumentar os links externos de forma adequada e melhorar a experiência do usuário do site para uma posição mais importante. (Texto/Yang Yang)