Olá a todos, estou muito feliz em voltar hoje à chinaz para compartilhar com vocês algumas de minhas recentes experiências de construção de sites e SEO. Recentemente, houve dificuldades e preocupações. O que é doloroso é que o Baidu não está calmo - inclusão e site anormais. O que é feliz é que o PR do Google foi atualizado em grande escala. mão finalmente emergiu da sombra do Baidu. Ok, voltando ao tópico deste artigo, todos nós sabemos que existem vários motivos pelos quais um site é rebaixado: o site não atualiza seu conteúdo e importa links externos de alta qualidade há muito tempo. Ao navegar por alguns motivos pelos quais outros webmasters foram rebaixados, gradualmente entendi o verdadeiro significado do comando domínio. Na verdade, o domínio pode não apenas verificar o número de links externos do site, mas também determinar se o site foi rebaixado, certo. domínio + endereço do próprio site Se os resultados da pesquisa retornados pelo Baidu mostrarem que o seu site não é o primeiro, ele obviamente será rebaixado, embora não possa ser 100% rebaixado. No entanto, de acordo com a observação do autor sobre outros sites bem classificados, todos os domínios são classificados em primeiro lugar e aqueles que não são classificados basicamente não são.
Agora, deixe-me falar sobre por que meu site foi rebaixado e algumas soluções.
Primeiro: como o autor tem muitos sites disponíveis, o conteúdo do site não é atualizado com tanta frequência quanto outros. Normalmente escrevo um artigo original quando o Baidu é atualizado na noite de quinta-feira. Às vezes, apenas vou ao espaço QQ para encontrar alguns artigos, desde que o artigo contenha as palavras-chave do site, tudo bem. de tais artigos. Além disso, às vezes o site se esquece de atualizar, o que também ignora o fato de que atualizações regulares em SEO podem ganhar melhor o favor dos spiders do Baidu. Esta é a primeira manifestação de rebaixamento.
Segundo: o número de textos âncora para palavras-chave. Escrevi um artigo antes chamado "Anatomia do motivo pelo qual meu site foi rebaixado". Entre eles, um ponto é que a densidade de palavras-chave estava muito alta naquele momento, o que resultou no rebaixamento do ranking. Amigos interessados podem conferir. Mas a diferença do “segundo” é que o texto âncora que defini nas palavras-chave é muito grande e muitas delas estão em negrito. Acho que deveria haver um problema aqui. Naquela época, me perguntei se os spiders eram sensíveis a muitos textos âncora.
Terceiro e último, o site do autor está de volta. Vamos revisar minha solução: ① Porque as páginas internas do site do autor são classificadas, mas a página inicial está a milhares de quilômetros de distância. Portanto, é necessário aumentar o peso da página inicial do site. Pensei em comprar uma corrente preta de alta qualidade. Muitas pessoas sabem que os links pretos fazem parte do black hat SEO. As pessoas que compram links pretos têm medo de serem hackeadas. Você pode imaginar que, se vincular o link preto de um concorrente, qual concorrente não será facilmente hackeado. ainda considera em muitos aspectos. Aqui, gostaria de lembrar aos amigos que desejam comprar links pretos que eles devem estar estáveis ao comprar links pretos. ②O conteúdo é atualizado regularmente Como o site do autor é construído em WordPress, ele tem a função de atualizações regulares e é bastante amigável para spiders. ③ Reduza o texto âncora. Há muitos textos âncora em "Segundo", então reduza-os adequadamente.
Agora, todos os sites cujos domínios foram rebaixados voltaram ao primeiro lugar da página inicial. Resumindo, basta construir um bom site com bom conteúdo, links externos e melhorar a experiência do usuário. Espero que minha experiência e lições tragam alguma inspiração para a maioria dos webmasters. Bem-vindo a se comunicar comigo.
Este artigo foi criado originalmente pelo webmaster de http://www.92fjw.com/ . Por favor, indique a fonte para reimpressão.
Obrigado Lei Mingjian pela sua contribuição