Ontem, analisei os logs do IIS, felizmente, todos os spiders do Baidu, Google e Yahoo começaram a rastrear. Parece que a otimização foi bem-sucedida. cheguei e incluí-o, mas também encontrei alguns problemas. Existem muitos registros de retorno de página 404 nos registros de rastreamento de aranha do Google. Isso não é uma coisa boa. links. Então entrei no Google e usei a ferramenta de gerenciamento de sites para analisá-lo. Meu Deus, havia 210 links mortos, acho que a qualidade das minhas páginas não era muito boa para o Google, mas tive problemas para verificar tantas páginas 404, digamos. sozinho mudando-os. Então pensei em robots.txt.
Como as páginas 404 aqui terminam basicamente com asp, para uma página 404 tão grande podemos configurá-la assim:
Agente do usuário:Googlebot
Não permitir:/*.asp$
Vim aqui esta manhã para analisar os registros de rastreamento do Google da noite passada e, como esperado, não prestei mais atenção a essas páginas que terminam em asp.
Se um grande número de links mortos não apresentar páginas regulares, não é adequado usar robots.txt, então outra maneira é definir manualmente a página 404. Geralmente, o backend fornecido pelo provedor de hospedagem deve fornecer uma página 404. , se for um programa .net, você pode definir a página de erro no web.config. Efetuo login diretamente no servidor para modificar a página de retorno do código 404 processada pelo IIS. Em uma palavra, alterar a página 404 ajudará a orientar os clientes. para pular para outras páginas úteis para atrair clientes.
Este artigo foi publicado pela Koushuiyu Web Tutorial Network (http://www.koushuiyu.cn). Indique a reimpressão, obrigado!