Hier, j'ai analysé les journaux IIS. Heureusement, les robots de Baidu, Google et Yahoo sont tous venus explorer. Il semble que l'optimisation ait réussi. Les pages qui n'avaient pas été explorées auparavant ont été explorées avec succès par Google après quelques conseils de liens externes. est arrivé et l'a inclus, mais j'ai également trouvé quelques problèmes. Il existe de nombreux enregistrements de retour de 404 pages dans les enregistrements d'exploration des araignées de Google. Cela signifie que je n'ai pas nettoyé le code et qu'il y a beaucoup de morts. links. Ensuite, je me suis connecté à Google et j'ai utilisé l'outil de gestion du site Web pour l'analyser. Oh mon Dieu, il y avait 210 liens morts. Je suppose que la qualité de mes pages n'était pas très bonne pour Google, mais j'ai eu du mal à vérifier autant de pages 404. seul en les changeant. Ensuite, j'ai pensé à robots.txt.
Parce que les pages 404 ici se terminent essentiellement par asp, pour une page 404 aussi grande, nous pouvons la configurer comme ceci :
Agent utilisateur : Googlebot
Interdire :/*.asp$
Je suis venu ici ce matin pour analyser les logs des enregistrements de crawl Google de la nuit dernière, et comme prévu je n'ai plus fait attention à ces pages se terminant par asp.
Si un grand nombre de liens morts ne présentent pas de pages normales, il n'est pas approprié d'utiliser robots.txt, une autre méthode consiste donc à définir manuellement la page 404. Généralement, le backend fourni par le fournisseur d'hébergement doit fournir une page 404. , s'il s'agit d'un programme .net, vous pouvez définir la page d'erreur dans web.config. Je me connecte directement au serveur pour modifier la page de retour de code 404 traitée par IIS. En un mot, changer la page 404 aidera à guider les clients. pour accéder à d'autres pages utiles pour attirer des clients.
Cet article est publié par Koushuiyu Web Tutorial Network (http://www.koushuiyu.cn). Veuillez indiquer la réimpression, merci !